Bitget App
交易「智」變
Vitalik Buterin 強調人工智慧過度自主的局限性,並提倡加強人機互動

Vitalik Buterin 強調人工智慧過度自主的局限性,並提倡加強人機互動

MpostMpost2025/08/11 15:30
作者:Mpost

簡單來說 以太坊聯合創始人Vitalik Buterin強調,人工智慧系統應該優先增加人機互動和自適應編輯能力,而不是過度自主,以提高效率和安全性。

以太坊聯合創始人 Vitalik Buterin 最近在社群媒體平台 X 上分享了他對許多 AI 開發者為最大化 AI 系統「代理」特性而採取的做法的不滿。他認為,專注於提高 AI 的自主性不如提供更多人類參與的機會有效,後者不僅能長期帶來更好的結果,還能提高安全性。

他在一篇出版物中表示:“如今,我對具有良好編輯功能的開放式 AI 模型比那些僅從頭開始創建的模型更感興趣。”

他補充說:“從中期來看,我想要一些奇特的 BCI 東西,它可以在事物生成時向我展示它,並實時檢測我對它的每個部分的感受並進行相應的調整。”

呼應某事 @卡帕蒂 最近說過,許多人工智慧開發都在嘗試盡可能地“代理”,這確實讓我感到沮喪,而實際上為人類輸入創建*更多*路徑既可以創造更好的輸出(現在相當長一段時間內都是如此),而且更安全。

-vitalik.eth(@VitalikButerin) 2025 年 8 月 11 日

人工智慧過度自主的挑戰以及互動式、使用者自適應模式的前景

Vitalik Buterin 對前特斯拉人工智慧總監 Andrej Karpathy 的一篇文章做出了回應,後者指出,大型語言模型 (LLM) 由於針對長期任務進行了優化,變得過於自主。 

Andrej Karpathy 解釋說,例如,在編碼中,這些模型現在傾向於長時間推理,表現出搜索整個存儲庫的趨勢,反復進行網絡搜索,過度分析罕見的邊緣情況,即使在已知不完整或正在積極開發的代碼中也是如此,並且經常在幾分鐘後返回以回答即使是簡單的查詢。

這對於長期運行的任務來說或許有意義,但對於我仍然經常進行的更「循環內」的迭代開發,或者在運行腳本之前只想快速檢查一下,以防萬一犯了索引錯誤或其他一些簡單錯誤,它就不太適用了。我經常發現自己會打斷法學碩士(LLM)的學習,說“停,你想太多了。只關注這個文件。不要使用任何工具。不要過度設計。” Andrej Karpathy 在一篇出版物中說道。

我注意到,由於(我認為?)對長期任務進行了大量基準測試,LLM 預設變得有點過於代理,有點超出我的平均使用情況。

例如在編碼中,模型現在傾向於推理相當長的時間,它們傾向於...

——安德烈·卡帕西 (@karpathy) 2025 年 8 月 9 日

Vitalik Buterin 表示同意人工智慧過度自主會導致效率下降的觀點。他認為,配備編輯功能的開源模型比那些純粹從頭開始創建內容的模型更有效率。 

這位以太坊聯合創始人還強調了腦機介面的潛力,該介面可以即時監控用戶對生成內容的反應並進行相應調整。這種技術將使人工智慧系統能夠更好地理解並響應用戶的意圖和期望。他指出,許多目前的人工智慧模型經常無法解釋這些細微的差別,這限制了它們的整體效用。

0

免責聲明:文章中的所有內容僅代表作者的觀點,與本平台無關。用戶不應以本文作為投資決策的參考。

PoolX: 鎖倉獲得新代幣空投
不要錯過熱門新幣,且APR 高達 10%+
立即參與