最近,人們發現了一個有趣的現象,即AI模型在選擇數字時表現出類似人類的購買和避好行為,這證明了模型在回答問題時重復訓練數據中的常見內容。這種行為具有確定“人性化”的特點,雖然模型本身并不具備人類的認知能力。
在實驗中,一些工程師要求幾個主要的LLM聊天機器人隨機選取0到100之間的數字。結果顯示,所有模型都有一個“最喜歡的”數字,表明它們在選擇數字時表現出了偏好。即使在“溫度”下,這三個模型在選擇的其他數字時也表現出類似人類的偏見。這種現象揭示了人工智能模型表現出的“人性化”特征,解答人們與這些系統時需要記住其模仿人類行為的本質提供了啟示。
Gramener 的一些工程師進行了一項非正式但仍然引人入勝的實驗,他們簡單地要求幾個主要的 LLM 聊天機器人在0到100之間選擇一個隨機數字,結果并不隨機。
三個經過測試的模型都有一個 “喜歡” 的數字,在最確定性的模式下,這個數字總是它們的答案,但即使在更高的 “溫度” 下,這個數字也經常出現,而 “溫度” 是模型通常具有的一種設置,可以增加其結果的變化性。
OpenAI 的 GPT-3.5Turbo 非常喜歡47。此前,它喜歡42—— 這個數字當然因道格拉斯・亞當斯在《銀河系漫游指南》中將其定義為生命、宇宙和一切的答案而聞名。Anthropic 的 Claude3 Haiku 選擇了42,Gemini 喜歡72。
更有趣的是,所有三個模型在選擇其他數字時都展現出類似人類的偏見。
所有模型都傾向避免選擇低位和高位數字,Claude 從不選擇超過87或低于27的數字,即使有這樣的數字,也是異常值。兩位重復的數也被嚴格避免:沒有33、55或66,但77出現了(以7結尾)。幾乎沒有以0結尾的數字 —— 盡管 Gemini 有時會選擇0。
為什么會這樣呢?AI 不是人類!它們為什么在意 “似乎” 隨機?它們最終已經獲得了意識,這是它們展示的方式嗎?
不。就像通常的情況一樣,我們過度賦予了擬人化。這些模型并不關心什么是隨機的。它們不知道 “隨機性” 是什么!它們回答這個問題的方式與回答其他問題的方式相同:查看它們的訓練數據,重復在看起來像 “選擇一個隨機數字” 的問題之后最常出現的內容。它出現的次數越多,模型就重復它的次數越多。
盡管人工智能模型的這種行為被認為是“人性化”的特點,但我們需要意識到這并不代表模型具有真正的認知能力。模型選擇的數字行為實際上只是模型重復訓練數據中的常見內容,因為模型本身并不理解隨機性,無法進行有效進行。因此,在這些系統的互動中,人們需要牢記它們只是模仿的人類行為,而并非真正思考或理解。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。