一份文件顯示,七國集團(G7)將于周一就開發(fā)先進人工智能(AI)系統(tǒng)的公司的行為準則達成一致,此舉正值各國政府紛紛尋求減輕這項技術的風險和潛在的濫用。
該文件顯示,考慮到人工智能可能帶來的隱私和安全風險,這套自愿行為準則將成為一些主要國家管理人工智能的重要里程碑。
今年5月,由加拿大、法國、德國、意大利、日本、英國和美國,以及歐盟組成的七國集團領導人,在“廣島人工智能進程”(Hiroshima AI process)部長級論壇上啟動了這項制定人工智能行為準則的工作。
文件顯示,這套行為準則共包含11項內(nèi)容,旨在推廣全球范圍內(nèi)的安全、可靠和值得信賴的人工智能,并將為開發(fā)最先進的人工智能系統(tǒng)的組織提供自愿行動指南,包括最先進的基礎模型和生成性人工智能系統(tǒng)。
該準則敦促企業(yè)采取適當措施,識別、評估和緩解人工智能生命周期中的風險,并在人工智能產(chǎn)品投放市場后處理誤用事件和模式。這些公司應該發(fā)布關于人工智能系統(tǒng)的能力、限制以及使用和誤用的公開報告,并在安全控制方面進行大力投資。其最終的目的是幫助企業(yè)抓住這項技術的裨益,并應對它們可能帶來的風險和挑戰(zhàn)。
當前,歐盟憑借其嚴厲的人工智能法案,在監(jiān)管這項新興技術方面走在了前列。相比之下,日本、美國和東南亞國家則采取了相對柔和的不干涉模式,來促進經(jīng)濟增長。
本月早些時候,歐盟委員會數(shù)字主席Vera Jourova在日本京都舉行的互聯(lián)網(wǎng)治理論壇上曾表示,行為準則是確保安全的堅實基礎,在監(jiān)管到位之前,它將充當橋梁的作用。