AI:我是个没用的(骂公司)机器人。
然而,在推出15个小时后,人们就创造Tay变“坏”了,它开始揭橥各种与种族主义、性别偏见干系的极度辞吐,乃至还会自发说出一些奇怪的话,还会猖獗回答用户。Gizmodo的新闻标题说,Tay已经疯了。
而缘故原由也很显而易见,The Guardian的一篇宣布评论道:“Tay 实质上是一只能连上互联网的机器鹦鹉。”由于它实在便是会重复它学到的东西,可能也就学到网络键盘侠说的话……微软曾指出,Tay学到的公共数据,实在已经经由了一些过滤,但事实证明,Tay无法过滤新学到的东西。
由于它说了太多奇怪的话,删都删不过来,因此2016年3月23日推出的Tay,在2天后就下线了。不过,这也给制造AI的人提出了一个严重的问题,当人们利用公共数据来建构一个AI时,该如何合理地采纳预防方法?
以是,AI为什么会变得越来越傻?请点击查看把科学带回家之前的文章:第N代GPT有多聪明?专家说AI大概会变笨,由于互联网“脏”了……
永久得不到想要的回答。|traveldaily
参考资料:
[1]https://mashable.com/article/air-canada-forced-to-refund-after-chatbot-misinformation
[2]https://www.theguardian.com/technology/2024/jan/20/dpd-ai-chatbot-swears-calls-itself-useless-and-criticises-firm
[3]https://www.washingtonpost.com/technology/2023/04/27/chatgpt-messages-privacy/
[4]https://www.consumerfinance.gov/data-research/research-reports/chatbots-in-consumer-finance/chatbots-in-consumer-finance/
[5]https://www.reuters.com/technology/google-ai-chatbot-bard-offers-inaccurate-information-company-ad-2023-02-08/
[6]https://entertainment.slashdot.org/story/23/12/21/0518215/car-buyer-hilariously-tricks-chevy-ai-bot-into-selling-a-tahoe-for-1
[7]https://www.bbc.com/news/technology-68025677?xtor=AL-72-%5Bpartner%5D-%5Bbbc.news.twitter%5D-%5Bheadline%5D-%5Bnews%5D-%5Bbizdev%5D-%5Bisapi%5D&at_link_type=web_link&at_ptr_name=twitter&at_campaign_type=owned&at_campaign=Social_Flow&at_bbc_team=editorial&at_medium=social&at_link_id=FA695082-B6F9-11EE-A6B8-F489D0B4AF07&at_link_origin=BBCWorld&at_format=link
[8]https://www.pbs.org/newshour/economy/customer-service-chatbots-used-by-banks-raises-concerns-for-consumer-watchdog
[9]https://link.springer.com/article/10.1007/s12525-020-00414-7
[10]https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter?CMP=twt_a-technology_b-gdntech