【時報編譯張朝欽綜合外電報導】英國官員警告機構,不要將由人工智慧(AI)驅動的聊天機器人整合到它們的業務中,研究顯示,聊天機器人可能會被騙去執行有害的任務。

英國國家網路安全中心(NCSC)訂於周三部部的兩篇文章顯示,專家們尚未能解決雨衣些演算法有關的安全問題;這些演算法能生成類似人類的互動,即所謂的大型語言模型(LLMs)。

人工智慧的工具正被用作聊天機器人。一些人認為,它們不僅會取代網際網路搜尋,還會取代客服工作和銷售電話。

NCSC說,這可能會帶來風險,特別是這樣的模型被內嵌入機構的業務流程中。

研究人員已經數次找到顛覆聊天機器人的作法,例如提供惡意的命令,或是誘騙它們去繞過自己建立的安全護欄。

另一方面,如果駭客正確編造了銀行的查詢,那麼銀行部署的AI聊天機器人,可能會被誘騙進行未經授權的交易。

NSCS說,使用LLM服務的企業需要謹慎行事,要當作如同它們使用測試版的產品或代碼庫一樣。

全球各地政府當局都在努力應對LLM的崛起,例如OpenAI的ChatGPT。企業正將要把LLM融入銷售和客戶服務等服務中,人工智慧的安全影響也開始成為關注焦點。

#聊天機器人 #AI #人工智慧 #LLM #英國