谷歌前CEO警告稱人類應(yīng)該準(zhǔn)備好在某些時(shí)刻關(guān)掉AI(人工智能)的電源。 當(dāng)?shù)貢r(shí)間12月15日,谷歌前CEO、執(zhí)行董事長埃里克·施密特(Eric Schmidt)在接受外媒采訪時(shí)表示,盡管AI的出現(xiàn)是一項(xiàng)值得慶祝的人類成就,當(dāng)AI系統(tǒng)能夠?qū)崿F(xiàn)“自我提升(self-improve)”時(shí),人類“應(yīng)該認(rèn)真考慮切斷其電源”。 施密特表示,AI系統(tǒng)發(fā)展速度如此之快,有可能會帶來“人類生存方面的問題”:“看看社交媒體,它已經(jīng)為我們的國家和全球帶來了多么劇烈的變化。再想象一種更智慧、更強(qiáng)大的技術(shù),可以用于傳輸信息、研發(fā)創(chuàng)新、藥物開發(fā),再到各種負(fù)面的用途,包括作為武器或用于網(wǎng)絡(luò)攻擊。這一切的速度都非常快。” 施密特指出,在他從業(yè)的50多年時(shí)間內(nèi),他從未見過任何技術(shù)展現(xiàn)出和AI一樣快的創(chuàng)新增速,也許在未來的1至2年內(nèi)就會出現(xiàn)能夠獨(dú)立做研究的AI系統(tǒng),也就是所謂的“AI科學(xué)家”。發(fā)展到一定階段后,AI就相當(dāng)于為每個人都配上一位隨叫隨到的專業(yè)大師,“只是我們不知道每個人都擁有這份力量后會帶來什么”。 施密特一直公開呼吁人們重視AI的潛在危險(xiǎn)。在本次采訪中,施密特再次強(qiáng)調(diào)了政府監(jiān)管AI的重要性,稱在當(dāng)下如此激烈的AI競賽中,不排除“某一家公司會選擇為了速度,跳過所有的安全步驟,放出造成真正傷害的AI模型”。 施密特還談到,政府和技術(shù)人員應(yīng)該提前預(yù)想最壞的情況,準(zhǔn)備能夠監(jiān)督AI系統(tǒng)的備用系統(tǒng),這樣在人類無法管控AI的情況下,AI就可以互相管制。 資料顯示,施密特于2001年至2011年期間擔(dān)任谷歌CEO,并在董事會任職至2019年。目前,施密特在彭博億萬富豪榜上以365億美元的身家排在第46位,他仍然是谷歌母公司Alphabet的股東,持有約1.47億股Alphabet股票。 值得注意的是,不久前,谷歌現(xiàn)任CEO桑達(dá)爾·皮查伊(Sundar Pichai)剛剛發(fā)表了和施密特十分不同的觀點(diǎn),認(rèn)為AI已經(jīng)得到了足夠的監(jiān)管。 12月初,在紐約舉行的DealBook峰會上,皮查伊表示,他對AI的潛在影響“肯定持樂觀態(tài)度”,并認(rèn)為現(xiàn)有的監(jiān)管已經(jīng)涵蓋了許多AI應(yīng)用:“例如,你無法在沒有經(jīng)過所有監(jiān)管審批的情況下引入一種疾病治療方法。僅僅因?yàn)樵谶@個過程中使用了AI,并不意味著一切都會發(fā)生改變。所以我們必須謹(jǐn)慎地考慮,是否真的需要增加任何額外監(jiān)管?!?br> 就在一周前,面對競爭對手OpenAI連續(xù)12天的更新計(jì)劃,谷歌宣布正式推出新一代大模型Gemini 2.0,速度比Gemini 1.5 Pro快兩倍,擁有多模態(tài)輸入輸出和更多智能體功能,包括編程助手、數(shù)據(jù)科學(xué)代理、游戲伙伴等等。 澎湃新聞記者 胡含嫣 (本文來自澎湃新聞,更多原創(chuàng)資訊請下載“澎湃新聞”APP) |
19款電子扎帶
電路板識別電子標(biāo)簽