Stanford大學386頁重磅人工智能報告

, ,

Stanford 大學以人為本的人工智慧中心(Human-Centered AI, HAI)從 2017 年開始關注對於人類有關的人工智慧發展。研究團隊包含學術界與私人領域,蒐集有關人工智慧訊息與預測,他們提出一個人工智慧指數,能夠提供有關政府與機構制定人工智慧相關政策與法規之用。

HAI 作為一項從 2017 年開始關注人工智慧領域的報告,2023年可能不是最新訊息,但對於廣泛了解人工智慧以及產業脈動來說還是有必要的,畢竟不只有生成式AI才能叫做人工智慧。

報告主題包括:對於基礎模型的新分析,其地緣政治與培訓成本,人工智慧系統的環境影響,幼童(K-12)人工智慧教育,以及公眾與論趨勢。我們摘取其中最緊急,可能也是最難突破的重點:

  • 在過去的十年里,人工智慧的發展已經從學術界主導翻轉到產業界主導,幅度很大,而且沒有逆轉跡象。
  • 傳統基準上測試模型正變得困難,可能需要一種新的模式。
  • 訓練與使用人工智慧的能源足跡正在變得相當大,但我們還沒有看到它如何在其他地方增加效率。
  • 自2012年以來,”AI事件和爭議 “的數量增加了26倍,這實際上似乎有點低。
  • 與人工智慧相關的技能和工作正在增加,但沒有想象的那麽快。
  • 然而,政策制定者們正在努力編寫一個明確的人工智慧法案,如果有的話,這是一個愚蠢的差事。
  • 目前投資已經暫時停滯,但這是在過去十年如天文數字般的增長之後。
  • 超過70%的中國、沙烏地阿拉伯和印度受訪者認為人工智能的好處多於壞處。美國人呢?35%.

報告對許多主題與子項目進行了詳細描述,英文也不算太難,相當具有可讀性和非技術性。但相信只有專業機構才會讀完386頁的分析報告,但實際上,幾乎所有人都可以。

我們有興趣的是關於人工智慧的倫理(ethics)討論,第三章能更詳細一點深入討論。

HAI 報告裡認為偏見和系統毒性很難簡化為數字處理,但就定義和測試人工智慧模型而言,很明顯,「未經過濾的」模型更容易被引入「有問題」的領域。如果要處理有問題的領域,會經過我們稱為指令調整的技術,也就是增加一層額外的預設(如隱藏的提示)或將模型的輸出通過第二個調整器模型,可以有效地改善這個問題。不過,如此一來解答則但遠不及完,甚至有可能拒絕提供答案。

另外,重點裡提到的「人工智慧事件爭議」的增加,我們注意到在大型語言模型被主流採用之前,僅有少部分提報有關公正性,正如報告所示,「在某些公平性基準上表現較好的語言模型往往有較差的性別偏見」,換句話說,讓模型更加公正反而增加意想不到的後果。這正代表我們並不清楚大型語言模型真正的工作原理,便提前產生優化的期待,很顯然這沒有發生。

事實查核聽起來是適合人工智慧的領域之一,如果一項消息經過大規模索引查核,就可以評估並且提出一個信心指標。但這跟實際情況相差甚遠,人工智慧對於評估事實上效果特別差,即使查核過真實來源,還是有可能產生不切實際的信心指標。相反的會成為錯誤訊息的強大來源,在測試與改進事實查核上,目前看起來還是停留在原點,對於人類認知事實上並沒有增加多少效能。

最後,報告也顯示出即使人們應該小心謹慎使用人工智慧,目前興趣大增的人們能夠改變原有使用方式。在計算機協會(ACM)裡,有關人工智慧的公平、責任跟透明度都有效增加,在神經系統處理大會(NeurIPS),隱私與可解釋權則得到更多關心,代表著人工智慧更加負起責任,並且也產生極大綜效,即使它仍需要更多時間。

HAI 全文下載
HAI 網路版本

找尋更多未來 |

如果你喜歡這篇文章,或許可以請我喝杯咖啡

再生式企業特集