達特茅斯大學研究人員開發出一種人工智慧代理,能夠以99.8%的成功率繞過調查機器人的偵測。
簡單來說 達特茅斯研究員肖恩韋斯特伍德創建了一個人工智慧代理,該代理在 99.8% 的情況下可以繞過調查機器人檢測,這表明線上研究正面臨威脅。
肖恩‧韋斯特伍德,達特茅斯學院政府學副教授兼主任 極化研究實驗室 他開發了一種人工智慧系統,他稱之為“自主合成受訪者”,該系統能夠回答調查問題,同時繞過幾乎所有用於自動回應的高級檢測方法。
該研究發表在《美國國家科學院院刊》(PNAS)上,研究強調,線上調查研究(許多科學研究的資料收集基石)現在可能面臨大型語言模型(LLM)的威脅。
研究報告稱,人工智慧代理成功躲避偵測的機率高達99.8%。傳統的調查安全措施,例如注意力檢查問題、行為指標和反應模式分析,旨在識別注意力不集中的人類或自動機器人。韋斯特伍德認為這些工具正變得失效,因為他的人工智慧代理繞過了著名研究中描述的標準檢測方法,包括專門用於識別人工智慧生成答案的方法。它甚至通過了「反向提示」問題,這類問題對人工智慧來說輕而易舉,但對人類來說卻極具挑戰性。
根據題為《大型語言模型對線上調查研究的潛在生存威脅》的論文,該人工智慧系統採用分層運行模式:一旦其推理引擎確定了答案,第二層就會執行旨在模仿人類行為的操作。系統會根據使用者的教育程度模擬真實的閱讀時間,產生類似人類的滑鼠移動,並逐鍵輸入開放式答案,包括合理的拼字錯誤和更正。此外,它還配置為與能夠繞過常見反機器人措施(例如 reCAPTCHA)的工具配合使用,從而進一步實現難以察覺的自動化線上調查參與。
研究警告:人工智慧角色可能以極低的成本操縱全國民調
根據這項研究,人工智慧系統能夠模擬“連貫的人口統計特徵”,這意味著理論上,它可以根據人工智慧生成的用戶畫像操縱線上調查結果,使其反映任何預期結果。只需少量偽造的回應就能改變結果。該論文指出,在2024年大選前的七項主要全國民意調查中,引入10到52條人工智慧產生的回應就可能改變預測結果。產生這些回覆的成本極低,估計每個回覆僅需5美分左右,而支付給人工受訪者的報酬通常為1.5美元。
Westwood 的 AI 代理與模型無關,並使用 Python 實現,這意味著它可以透過主要 AI 提供者的 API 運行,例如: OpenAI可以是 Anthropic 或 Google,也可以使用開放權重模型在本地端託管,例如 LLama在該研究中,測試主要採用 OpenAI除了 o4-mini 之外,我們還使用了包括 DeepSeek R1、Mistral Large、Claude 3.7 Sonnet、Grok3 和 Gemini 2.5 Preview 在內的其他模型來展示該方法在多個 LLM 上的兼容性。該智能體根據一個約 500 字的提示進行操作,該提示指示它要模仿的角色類型以及如何以類人的方式做出回應。
該論文進一步強調了降低人工智慧產生的問卷被操縱風險的潛在策略,但每種方法都存在權衡取捨。加強對參與者的身份驗證可以降低這種威脅,但也會引發隱私方面的擔憂。此外,論文還鼓勵研究人員提高調查資料收集的透明度,並考慮採用更可控的參與者招募方法,例如基於地址的抽樣或使用選民登記文件,以維護資料的完整性。
免責聲明:文章中的所有內容僅代表作者的觀點,與本平台無關。用戶不應以本文作為投資決策的參考。
您也可能喜歡
逆勢加碼以太幣!BitMine 信心喊話:下行空間有限、準備迎接「超級週期」

Monad 主網上線、同步發放空投!$MON 無懼開盤下殺、逆勢飆漲 46%

巨鯨豪擲 17 億美元!押注比特幣年底重返 10 萬美元,唯獨看衰「這件事」

資產管理巨擘殺入戰局!富蘭克林坦伯頓推出「XRP 現貨 ETF」

