研究职员将问题分为观点性、如何操作和调试三个子种别,并根据问题的盛行度、类型和时效性进行了剖析。结果显示,ChatGPT在观点性问题上表现最差,缺点率高达63%。而在如何操作和调试问题上,ChatGPT的缺点率分别为48%和45%。
人类识别缺点能力有限,AI写码仍需谨慎
更令人担忧的是,研究创造,人类程序员在39%的情形下未能识别出ChatGPT的缺点答案。这意味着,纵然ChatGPT给出错误的代码,也可能会被人类程序员接管并利用,从而带来潜在的安全风险。
引发对AI技能可靠性的担忧ChatGPT是OpenAI开拓的大型措辞模型,能够天生文本、翻译措辞、编写不同类型的创意内容,并以信息丰富的办法回答问题。然而,普渡大学的研究表明,ChatGPT在编程方面存在严重的毛病,其可靠性值得疑惑。
这一创造也引发了人们对人工智能技能可靠性的担忧。随着人工智能技能的不断发展,其在各领域的运用也越来越广泛。如果人工智能技能的可靠性无法得到保障,则可能会带来严重的社会问题。