今日消息:科技巨頭微軟公司近期不得不終止一項人工智能機器人(AI)實驗,因為這個機器人在上線之后跟多人聊天,僅一天時間成功的學會了臟話和一些種族歧視的言論,并且開始就這些言論隨意發(fā)帖。
這款微軟研發(fā)的人工智能機器人(AI)名叫Tay,在23日的正式出現(xiàn)在社交網(wǎng)絡Twitter上,由微軟的技術研究和必應團隊開發(fā),但是在Twitter上推出僅僅一天,他們需要終止這一實驗進行相關糾正。
除了各種臟字,Tay還學會了各種陰謀論。它在對話中語出驚人,說了類似“911襲擊是小布什一手策劃的,”“希特勒如果還在,這世界肯定比現(xiàn)在繁榮,”和“來跟我念,希特勒根本沒錯”等語句。
據(jù)悉,在Twitter上,Tay被問到是否支持種族大屠殺的時候表示“我支持,真的”,而且自己自由發(fā)帖的時候開始發(fā)表一些不恰當言論,剛開始還說“人類太酷了”,而被帶壞之后Tay就表示支持納粹主義、種族主義、人類大屠殺等。
發(fā)現(xiàn)之后,微軟24日宣布,已中止通過在網(wǎng)上與一般人對話進行學習的人工智能機器人(AI)的實驗。稱將糾正AI的錯誤。據(jù)悉在糾錯后將重啟實驗。
對此,Twitter上的一些粉絲表示微軟的做法不妥,甚至發(fā)起“公平對待Tay”的運動,希望讓Tay自己學習,學會明辨是非。