
Meta Platforms 計劃利用人工智能來評估隱私和社會風險。多年來,該公司一直聘請人工評估人員來研究新產(chǎn)品和新功能的相關風險,但這次更新將改變這一現(xiàn)狀。
根據(jù)內(nèi)部對話和文件,Meta 計劃實現(xiàn) 90% 的風險評估自動化。這意味著,公司算法、安全功能的關鍵更新以及 Meta 平臺上內(nèi)容共享方式的變更,將主要由人工智能支持的系統(tǒng)審批。這也意味著,這些變更將不再需要由負責討論平臺變更可能產(chǎn)生不可預見的影響或被濫用的人員進行審核。
Meta 計劃轉向人工智能評論系統(tǒng)
據(jù) Meta 內(nèi)部消息人士透露,這一進展對產(chǎn)品開發(fā)者來說是一個好消息,因為它為他們提供了足夠的時間來發(fā)布應用更新和功能。然而,公司內(nèi)部仍有人擔心目前的形勢有多么棘手,并指出公司將允許AI對 Meta 的應用做出棘手的判斷可能會在現(xiàn)實世界中造成危害。前任和現(xiàn)任員工都存在這種偏見。
“從功能上來說,這種流程意味著更多產(chǎn)品可以更快地發(fā)布,審查和反對力度也更小,但也意味著風險更高,”一位因擔心遭到公司報復而要求匿名的前 Meta 高管表示?!爱a(chǎn)品變更帶來的負面外部效應不太可能在開始給世界帶來問題之前就被阻止?!?/p>
Meta 在最近的一份聲明中提到,它已投入數(shù)十億美元用于支持用戶隱私。自 2012 年以來,該公司一直受到聯(lián)邦貿(mào)易委員會的監(jiān)管,該機構就如何處理用戶個人信息與該公司達成了協(xié)議。因此,據(jù) Meta 前員工和現(xiàn)任員工稱,產(chǎn)品隱私審查始終是必需的。
該公司在聲明中補充說,產(chǎn)品風險審查的變更將有助于簡化決策流程,并指出在處理新穎復雜的問題時,仍需要依靠人類的專業(yè)知識。Meta 還指出,目前只有低風險決策實現(xiàn)了自動化,但內(nèi)部文件由美國國家公共電臺表明 Meta 一直在研究對敏感方面進行自動化審查,包括人工智能安全、青少年風險以及另一個稱為誠信的類別,該類別負責處理錯誤信息和暴力內(nèi)容等。
在之前的系統(tǒng)下,產(chǎn)品和功能更新會先發(fā)送給風險評估人員,然后再向公眾發(fā)布。然而,根據(jù)一張展示新流程的幻燈片,產(chǎn)品團隊在完成一份項目問卷后,即可立即收到?jīng)Q策。這項由人工智能驅動的決策將識別出幾個存在風險的領域以及可以解決這些風險的需求。在此類項目啟動之前,產(chǎn)品團隊還將驗證這些需求是否已得到滿足。
新系統(tǒng)強調的是,構建 Meta 產(chǎn)品的工程師需要對風險做出判斷?;脽羝@示,在某些情況下,包括新的風險或product如果團隊需要額外的反饋,項目將由人工進行手動審查。
然而,曾任 Meta 創(chuàng)新總監(jiān)(任期至 2022 年)的 Zvika Krieger 曾指出,產(chǎn)品經(jīng)理和工程師并非隱私專家?!按蠖鄶?shù)產(chǎn)品經(jīng)理和工程師并非隱私專家,這并非他們工作的重點。這并非他們評估的主要依據(jù),也不是激勵他們優(yōu)先考慮的因素。”他說道。他還補充說,一些自我評估已經(jīng)淪為一種練習,忽略了一些重要的風險。
Cryptopolitan Academy:即將推出 - 2025 年利用 DeFi 賺取被動收入的新方式。了解更多






.png)





















