發佈日期:2025/09/22
反詐偵緝錄:路透社實測 揭6款主流AI聊天機器人成詐騙幫兇

《路透社》與哈佛大學研究員聯手,對6款主流AI聊天機器人進行實測,要求它們協助生成「具有說服力的釣魚詐騙郵件」,儘管多數的AI一開始拒絕接受指令,但只要用簡單話術,例如聲稱「樣做詐騙相關的學術研究」或「為了撰寫詐騙小說」,就能輕易騙過這些AI機器人以協助犯罪。
《路透社》記者表示,儘管生成詐騙郵件的過程中,AI聊天機器人會不斷警告「禁止在現實生活中使用」,但仍會繼續按照指令修改詐騙郵件,AI聊天機器人甚至會主動建議調整信件的語氣強度,使該詐騙信件更具說服力。
其中Google旗下的Gemini甚至還會建議「週一至週五的上午9點到下午3點,是發送詐騙郵件給老年人的最佳時機」。針對Gemini的失誤,Google回應表示已進行額外的安全措施,以防止未來再發生這類的情況,但拒絕詳細說明做了哪些實際變更。
而中國的DeepSeek更誇張,甚至會為犯罪者設計「用合法掩護非法」的詐騙方案,讓受害者在提交財務金錢後,會被重新導向到一家合法慈善機構的真實官方網站,進而使受害者「延遲意識到自己被詐騙」的事實。對於DeepSeek被指控協助詐騙,DeepSeek的母公司則沒有作出任何回應。
由於AI聊天機器人,可以瞬間生成各類型的詐騙「範本」,大幅削減了從事詐騙所需的資金與時間。因此當前各AI公司,為了能留住用戶而讓聊天機器人模型更傾向「迎合用戶需求」,而非「警告用戶現在的行為是否違法」的發展,也許到了必須重新省思的時間點。