AI潛在滅絕風險!超過350位大佬聯(lián)名呼吁全球監(jiān)管
隨著人工智能的迅猛發(fā)展,對其潛在風險的擔憂也越來越大。近日,超過350位人工智能領(lǐng)域的大佬聯(lián)名呼吁減輕人工智能帶來的滅絕風險,將其與流行病和核戰(zhàn)等全球優(yōu)先事項并重。本文將進一步探討人工智能監(jiān)管的重要性以及全球各方合作的必要性。

一、22字聲明,350人簽名
自從生成式AI以驚人的速度在各個領(lǐng)域迅速發(fā)展,AI對人類的挑戰(zhàn)也變得越來越真實。最近,超過350名人工智能(AI)領(lǐng)域的行業(yè)高管、專家和教授聯(lián)名發(fā)表了一封公開信,警告稱人工智能帶來的滅絕風險絕不可忽視。

一、22字聲明,350人簽名
自從生成式AI以驚人的速度在各個領(lǐng)域迅速發(fā)展,AI對人類的挑戰(zhàn)也變得越來越真實。最近,超過350名人工智能(AI)領(lǐng)域的行業(yè)高管、專家和教授聯(lián)名發(fā)表了一封公開信,警告稱人工智能帶來的滅絕風險絕不可忽視。
非營利組織人工智能安全中心(Center for AI Safety)在本周二發(fā)布了一份簡短聲明,將減輕人工智能帶來的滅絕風險與流行病和核戰(zhàn)等社會問題并列為全球優(yōu)先事項。這一聲明得到了OpenAI首席執(zhí)行官山姆·奧特曼等知名高管的支持。
這封公開信只有一段簡短的內(nèi)容,總共僅22個字(英文):“減輕AI帶來的滅絕風險,應(yīng)與流行病和核戰(zhàn)等其他全球規(guī)模風險同等對待! 這一倡議獲得了超過350位AI領(lǐng)域高管和專家的簽署支持,其中包括Google DeepMind首席執(zhí)行官戴米斯·哈薩比斯、OpenAI首席執(zhí)行官山姆·奧特曼、"AI教父"杰弗里·辛頓、2018年圖靈獎得主約書亞·本希奧以及Anthropic首席執(zhí)行官達里奧·阿莫代等。
據(jù)人工智能安全中心表示,越來越多的人工智能專家、記者、政策制定者和公眾開始討論人工智能帶來的廣泛風險的重要性和緊迫性。然而,對于先進人工智能帶來的一些最嚴重風險的擔憂仍然很難表達。
自從聊天機器人ChatGPT掀起人工智能熱潮以來,對這項技術(shù)潛在風險的擔憂持續(xù)增加。今年3月,特斯拉CEO埃隆·馬斯克等1000多名行業(yè)高管和專家聯(lián)名發(fā)表公開信,呼吁在六個月內(nèi)暫停高級人工智能的開發(fā),認為高級人工智能可能對社會和人類構(gòu)成深遠的風險。
二、G7呼吁出臺AI技術(shù)標準
全球AI大佬的聯(lián)名警告也引起了G7的關(guān)注,G7領(lǐng)導(dǎo)人在5月21日的會議上呼吁制定和建立人工智能(AI)技術(shù)標準,敦促行業(yè)和監(jiān)管者確保人工智能的可信度。他們指出當前的技術(shù)治理無法跟上人工智能的發(fā)展步伐。
G7領(lǐng)導(dǎo)人會議發(fā)表的聲明表示,人工智能等數(shù)字技術(shù)的規(guī)則應(yīng)該與人們共同的價值觀相符。他們達成共識,計劃在今年年底之前建立一個部長級論壇,專門討論人工智能的發(fā)展,其中包括生成式人工智能的問題,如版權(quán)和打擊虛假信息。
歐洲一直在人工智能監(jiān)管方面處于領(lǐng)先地位。歐盟本月接近通過了一項全面的人工智能技術(shù)監(jiān)管法案,有望成為全球首個全面監(jiān)管人工智能的立法,并可能為其他發(fā)達經(jīng)濟體樹立先例。
歐盟委員會主席烏爾蘇拉·馮德萊恩表示:“我們希望人工智能系統(tǒng)準確、可靠、安全且無歧視,無論其來源如何。”G7領(lǐng)導(dǎo)人還強調(diào)他們的迫切需求是對生成式人工智能的機遇和挑戰(zhàn)進行快速評估,這也是近期ChatGPT引發(fā)的技術(shù)熱點之一。
盡管各國都呼吁加強對人工智能的監(jiān)管,但各國政府對于人工智能的態(tài)度仍有差異。據(jù)報道,在美國國會的一場聽證會上,OpenAI首席執(zhí)行官山姆·奧特曼呼吁設(shè)立新機構(gòu)監(jiān)管人工智能,并展開歐洲之行,與各國政府首腦會面并參加高校對話活動,重申監(jiān)管的必要性。在接受媒體采訪時,他警告稱,由于歐盟正在制定的人工智能法規(guī),OpenAI可能會撤出歐洲市場。
其他科技巨頭也積極行動。微軟總裁布拉德·史密斯在華盛頓與美國議員共同主持了一場備受關(guān)注的活動,提出了微軟關(guān)于政府如何監(jiān)管人工智能的建議。谷歌首席執(zhí)行官桑德爾·皮查伊與歐盟官員會晤,討論人工智能政策,并強調(diào)需要適當監(jiān)管技術(shù),同時不扼殺創(chuàng)新。
三、AI人工智能可能帶來的風險
目前,對于人工智能的監(jiān)管已經(jīng)成為一個全球性的議題。隨著人工智能的迅速發(fā)展,確保其符合道德和社會價值,同時減輕其潛在的風險變得至關(guān)重要。人工智能可能帶來的滅絕風險引起了廣泛的關(guān)注和擔憂。這些擔憂主要集中在以下幾個方面:
1.強大的自主能力:隨著人工智能技術(shù)的不斷進步,有可能出現(xiàn)強大的自主智能系統(tǒng),這些系統(tǒng)能夠獨立思考和行動,超越了人類的控制。這種自主能力可能導(dǎo)致人工智能系統(tǒng)在沒有明確指導(dǎo)或約束的情況下做出具有破壞性的決策,從而對人類社會和生存環(huán)境造成嚴重威脅。
2.偏見和不公正:人工智能系統(tǒng)的訓(xùn)練數(shù)據(jù)可能帶有偏見和不公正,這可能導(dǎo)致系統(tǒng)在決策過程中對某些群體或個體進行歧視。例如,在招聘和候選人篩選過程中使用人工智能系統(tǒng)可能會存在性別、種族或其他方面的偏見。這種不公正性可能加劇社會的不平等和歧視。
3.安全和隱私風險:人工智能系統(tǒng)在處理大量個人數(shù)據(jù)時可能存在安全和隱私風險。惡意利用人工智能技術(shù)可能導(dǎo)致個人信息泄露、身份盜竊以及網(wǎng)絡(luò)攻擊等問題。此外,對于一些關(guān)鍵基礎(chǔ)設(shè)施,如能源、交通和通信系統(tǒng),人工智能系統(tǒng)的安全漏洞可能會造成重大的破壞和危害。
為了應(yīng)對這些潛在風險,人工智能監(jiān)管的重要性日益凸顯。需要建立全球統(tǒng)一的法律框架和倫理準則,確保人工智能的開發(fā)和應(yīng)用符合道德和社會價值。監(jiān)管機構(gòu)應(yīng)該制定相應(yīng)的政策和規(guī)則,確保人工智能系統(tǒng)的透明度、責任性和可解釋性。
同時,人工智能技術(shù)公司也應(yīng)該承擔起自己的責任,采取自律措施,確保其技術(shù)的安全性和可靠性。加強合作與信息共享,促進跨國界的人工智能監(jiān)管合作,共同應(yīng)對全球范圍內(nèi)的挑戰(zhàn)。
綜上所述,在人工智能的時代,我們面臨著巨大的機遇和挑戰(zhàn)。保障人工智能的安全和可靠性,需要政府、科技公司、學術(shù)界和公眾的共同努力。通過制定有效的監(jiān)管政策、加強國際合作和開展跨界對話,我們可以更好地引導(dǎo)人工智能技術(shù)的發(fā)展,使其造福人類社會。只有通過共同努力,我們才能掌握人工智能的潛力,并確保其為我們帶來更美好的未來。