信息網絡決定你的認知

原標題:經濟學家何帆、洪灝對話:我們有可能對抗算法的偏見嗎?
文章來源:大數據文摘
內容字數:14757字
人工智能時代:挑戰與機遇
本文摘錄自中信出版集團聯合華爾街見聞舉辦的對談精華內容,邀請了《變量》作者何帆教授和思睿集團首席經濟學家洪灝,結合尤瓦爾·赫拉利的《智人之上》,探討人工智能時代人類價值與意義,以及如何應對時代的不確定性。
1. 技術是終結者還是賦能者?
何帆教授指出,《智人之上》探討了人工智能、全球治理等熱點問題。洪灝先生認為赫拉利對人工智能的未來持悲觀態度,因為他認為科技發展速度過快,而監管卻滯后,可能導致技術被誤用。洪灝先生雖然承認AI在信息組織、搜索等方面效率極高,已經超越了初級研究人員,但他并不悲觀。他認為,雖然目前AI是技術受益者,但長期來看,如果不加大監管投入,技術發展將不可持續。
何帆教授補充,赫拉利認為人工智能與以往技術不同,其影響力和破壞力更大。他認為,信息技術可能讓人類封閉在信息繭房中,導致社會,共同現實不再存在。何帆教授認為,人工智能改變了信息格局,機器間的交流方式與人類不同,這帶來了對齊問題,即機器的目標與人類目標可能不一致,導致無法預測的結果。
2. 工作真的會被人工智能取代嗎?
洪灝先生認為,AI可以替代低附加值工作,讓人們有更多時間從事更有意義的工作。他認為AI目前相當于初級研究助理水平,但其信息處理能力已經非常強大。他個人使用AI的經驗是,AI極大地提高了他的工作效率,但同時也需要掌握與AI溝通的技巧。
何帆教授則指出,AI可能造成馬太效應,強者愈強,弱者愈弱。資深研究人員更容易駕馭AI,而年輕的研究人員則可能面臨失業風險。他認為,AI可能消除年輕人職業生涯中的試錯環節,阻礙他們的成長。梁建章曾指出,AI可能讓年輕人的第一份工作消失。
洪灝先生建議,年輕人應該學習動手能力強的技能,避免從事容易被AI替代的工作。他認為,金融知識可以作為愛好,但未必適合作為專業學習。
3. 算法偏見:隱藏的風險
何帆教授指出,《智人之上》中亞馬遜的招聘案例說明,AI算法中可能存在偏見,例如對女性的歧視。AI根據歷史數據得出結論,導致自我實現的預言。這種偏見隱藏在算法中,難以察覺。
洪灝先生指出,AI算法容易將相關性誤認為因果關系,這與人類的思維缺陷相似。他認為,人類的同理心、善惡之心是AI目前所不具備的,這也是人類的優勢所在。自動駕駛就是一個很好的例子,AI難以完全替代人類的駕駛能力,因為它無法理解人類的道德和情感。
何帆教授補充,人類的直覺和第六感是AI難以學習的,一些科學家正在研究如何將這些非理性因素融入AI技術中。他認為,AI的智能是單一的,缺乏人類的情感和道德判斷能力,這使得AI難以完全替代人類。
聯系作者
文章來源:大數據文摘
作者微信:
作者簡介:普及數據思維,傳播數據文化

粵公網安備 44011502001135號