AI 一天,人間一年。近兩年來,AI 技術發(fā)展迅猛,對我們生活滲透的速度,可以用一日千里形容。從智能家居到自動駕駛,從智能客服到 AI 助手,從寫作畫圖到情感陪伴,高效、便捷的 AI 技術,一點一滴悄然改變著我們的行為,提升著我們的生活質量和工作效率。 圖庫版權圖片,轉載使用可能引發(fā)版權糾紛 許多像我一樣(天天夢想著不勞而獲)的打工人,開始做起了“無痛工作”的白日夢——夢想著能夠借助 AI 的力量,在不付出太多努力的情況下完成工作,享受生活。 每月花上兩三百塊錢開個 AI 會員,實現 50% 以上工作外包,這事擱誰身上沒有巨大的誘惑力呢?然而,當我們沉浸在 AI 帶來的便利中時,也不得不警惕其可能給使用者帶來的負面影響:思維遲鈍、產生依賴、行動懶惰。 聽到這,有些朋友可能會懷疑,明明 AI 用著那么爽,出活那么快那么好,你這怕不是危言聳聽吧? 這還真不是危言聳聽。 近兩年,有多項研究得出了類似結論,為了讓大家兼聽則明,下面咱們用“人話”介紹幾個 AI 相關的研究以及學者們的結論和建議,請放心,零基礎也看得懂。 AI 讓人在方向盤上睡著了? 沃頓商學院副教授伊森·莫里克 (Ethan Mollick) 2024 年 4 月出版了一本書籍,叫《協同智能:與人工智能一起生活和工作》(Co-Intelligence: Living and Working with AI)。 書中介紹了一個實驗,莫里克和他的其他同行,請世界頂級咨詢公司之一的波士頓咨詢集團(BCG)協助負責實施研究,近 800 名波士頓咨詢的顧問參與了實驗。 這些顧問被隨機分為兩組,一組按照傳統(tǒng)方式正常工作,另一組必須使用 GPT-4 (OpenAI 的拳頭產品,大語言模型的領先者之一)。 這些顧問在經過人工智能培訓后,可以自由執(zhí)行 BCG 設計的 18 項任務,包括創(chuàng)意任務、分析任務、寫作和營銷任務、說服力任務等,這些都是正常咨詢顧問的工作范圍之內的標準任務。 你猜哪組完成得更好? 圖庫版權圖片,轉載使用可能引發(fā)版權糾紛 這個答案其實沒有懸念——使用了人工智能的那組做得更好。而且這種評判不是主觀的(某個領導說你行你就行那種),而是研究者用了 118 次不同的分析,使用人工智能組仍然具有顯著優(yōu)勢。 人工智能組的顧問們工作速度更快,更有創(chuàng)意、寫得更好、分析能力更強。方方面面都行。 你可能會說:這不是很好嗎? 但是研究者發(fā)現了一些令人擔憂的事——顧問們在使用人工智能來幫助他們完成任務過程中,由于人工智能已經完成了大部分工作,大多數實驗參與者只是簡單地粘貼他們被問到的問題,然后把人工智能的答案復制到他們的工作結果中。 然后 BCG 又設計了一項任務,這項任務是經過精心挑選的,以確保人工智能無法得出正確的答案——該任務結合了棘手的統(tǒng)計問題和誤導性數據。 在沒有人工智能幫助的情況下,人類顧問的正確率是 84% ,但當顧問使用人工智能時,只有 60% 到 70% 的正確率。 為什么會這樣? 聰明的你肯定也猜到了,顧問們依然像上次一樣,僅僅簡單地把人工智能的答案復制粘貼下來。這很難歸咎于顧問們投機取巧。設想一下,你如果處在這個場景,面前已經有一份看似“完美”的標準答案,很難克制自己不直接使用。 研究者們有個形象的比喻——過于依賴 AI 的顧問們就像趴在方向盤上睡著的司機,因為人工智能太過強大,能較好地完成絕大部分工作,人類不知不覺間給予了 AI 太多信任,但如果問題超出了 AI 的能力,這種信任就可能鑄成大錯。 AI 將教“會”學生還是教“廢”學生? 人工智能在教育行業(yè)中正被越來越廣泛地使用,而機智的大學生們,已經在第一時間使用各種大模型幫他們完成作業(yè)。此外,還有學?;蛘吖俜胶献鞯闹悄荏w軟硬件,以及其他商業(yè)公司提供的一些輔助教育產品都層出不窮。關于人工智能對教育領域的研究顯然是非常重要且必要的。 去年 6 月,有一項發(fā)表在《自然》雜志(Nature)上的研究,就探討了人工智能對巴基斯坦和中國大學生決策能力喪失、懶惰和隱私問題的影響。 這項研究主要考察了巴基斯坦和中國來自不同大學的 285 名學生的學習情況,數據分析結果表明,人工智能顯著影響學生和教師的決策能力,并使學生變得懶惰。此外,還會帶來安全和隱私方面的問題。 調查結果顯示,人類(參與的教師和學生)68.9% 的懶惰、68.6% 的個人隱私和安全問題、27.7% 的決策失誤都是由于人工智能影響。 圖庫版權圖片,轉載使用可能引發(fā)版權糾紛 使用人工智能技術的教師和學生會慢慢地、逐漸地失去自己做任務的興趣,還會逐漸導致人類決策權的喪失。當人工智能的使用和依賴增加時,會自動限制人腦的思維能力。 同時,人工智能的使用,會大幅減少實時物理交互,并會影響學生和教師之間的教育環(huán)境。 在真實的環(huán)境中,教師和學生之間存在大量的互動,這會發(fā)展學生的個性和公民素養(yǎng),例如,學生可以向其他學生學習,向老師提問,感受同學們之間的反饋等等,光靠 AI 的話全都難以做到。 這項研究認為,在教育中大規(guī)模應用人工智能技術之前,需要采取重要的預防措施。在不解決人類主要問題(人性天然具有弱點)的情況下,貿然接受人工智能就像召喚魔鬼一樣。建議集中精力合理設計、部署和使用人工智能進行教育來解決這個問題。 用的 AI 越好,招募人才越容易? AI 還有個常見應用,就是幫助人力資源部門篩選簡歷,幫助招聘,那么效果究竟怎么樣呢? 哈佛商學院創(chuàng)新科學實驗室的社會學家法布里奇奧·戴爾阿夸(Fabrizio Dell'Acqua)2022 年發(fā)布了一項研究,他聘請了 181 名專業(yè)招聘人員來審查 44 份簡歷。 他把受試者隨機分為四組,分別與“能完美預測的人工智能” 、“好人工智能” 、“壞人工智能”、“無人工智能”搭檔進行招聘工作。 結果發(fā)現,使用高質量人工智能的受試者,對工作申請的評估不太準確,他們在每份簡歷上花費的時間和精力更少,并且盲目遵循人工智能的建議。隨著時間的推移,他們也沒有改善。 但使用“壞人工智能”的招聘人員會付出更多的努力并花費更多的時間來評估簡歷,并且不太可能自動選擇人工智能推薦的候選人,他們更加警覺、更加挑剔、更加獨立。這些招聘人員學會了如何與指定的人工智能更好地互動,并提高了他們的績效。 這說明高性能人工智能可能會“鼓勵”人類多偷懶,把掌舵的方向盤完全交給了人工智能,自己在駕駛員的位置上睡著了。 讓 AI 幫助人類向上,人類監(jiān)督 AI 向善 史蒂芬·霍金曾說過,人工智能的成功創(chuàng)造將是人類歷史上最重大的事件。不幸的是,除非我們學會避免風險,否則這也可能是最后一次。 無可否認,我們人類天生具有某些短板,這也是我們之所以為人的重要屬性。偉大的科技在開創(chuàng)之初,都是為了彌補或平衡人類的短板,我們最不希望看到的結果——它讓我們的短板越來越短。 人工智能技術是為了造福人類而開發(fā)的,但從目前看,它并沒有實現在某些方面讓人類的自身水平提升獲益。 我們作為豐富感性的碳基人類,難免偶爾會偷懶,但我們需要認識到,當我們完全信任地把決策權悉數交給一個系統(tǒng)時,這實際上在進行一筆交易,隱藏的成本可能是你內源性的深度思考和技能成長空間。(咳咳咳,此處特別強調給用人工智能“交作業(yè)”的一些學生朋友們,小機靈鬼,說的就是你) 當工作中為了提效,和人工智能協作時,我們應該將人工智能視為一個古怪的隊友,而不是一個無所不知的仆人。我們得記得檢查其謊言和偏見、馬虎或遺漏,同時還要權衡其決策的道德性。最重要的,考慮哪些任務值得交給它,哪些任務我們想保留給自己。 畢竟,如果真的讓人工智能完全“替自己打工”,那么,未來某一天,砸掉自己飯碗的,不是人工智能,而是你自己。 參考文獻 [1]Ahmad SF, Han H, Alam MM, Rehmat MK, Irshad M, Arra?o-Mu?oz M, Ariza-Montes A. Impact of artificial intelligence on human loss in decision making, laziness and safety in education. Humanit Soc Sci Commun. 2023;10(1):311. doi: 10.1057/s41599-023-01787-8. Epub 2023 Jun 9. PMID: 37325188; PMCID: PMC10251321. [2]《Co-Intelligence: Living and Working with AI 》 by Ethan Mollick. Published by Portfolio, an imprint of Penguin Random House. Copyright 2024. [3]《alling Asleep at the Wheel: Human/AI Collaboration in a Field Experiment on HR Recruiters》, Fabrizio Dell’Acqua , Laboratory for Innovation Science, Harvard Business School 策劃制作 作者丨木木 北京師范大學數學專業(yè) 資深產品經理 人工智能創(chuàng)業(yè)者 審核丨于旸 騰訊玄武實驗室負責人 策劃丨丁崝 責編丨丁崝 審校丨徐來、林林 |
19款電子扎帶
電路板識別電子標簽