其实,ChatGPT是一个对话的AI模型,就像一个聊天机器人,一些公司客户服务网站上的自动聊天机器人。由OpenAI开发的,OpenAI是一家致力于确保人工智能造福全人类的科技研究公司。ChatGPT中的“GPT”指的是“预训练转换器”,是ChatGPT处理语言的方式。OpenAI于2022年11月发布的免费聊天机器人ChatGPT已席卷互联网。
在过去几十年中,ChatGPT与聊天机器人的区别在于,ChatGPT是使用来自人类反馈的强化学习(RLHF)进行训练的。RLHF涉及使用人工智能训练器和奖励模型,将ChatGPT开发成能够挑战错误、回答后续问题和承认错误的机器人。为了测试ChatGPT,Investopedia要求它“写一篇新闻风格的文章,解释ChatGPT是什么”。该机器人回应称,它“旨在根据给定的提示或对话生成类似人类的文本”。它补充说,因为它是根据人类对话的数据集训练的,所以它可以理解上下文和意图,直观的对话。ChatGPT在回应时还表示,其应用程序可能包括客户服务机器人、为社交媒体或博客创建内容,以及将文本从一种语言翻译成另一种语言。
如上所述,ChatGPT有许多潜在用途。它们的范围从更直接的聊天机器人类型的功能到更晦涩难懂的应用程序,用户将来很可能会探索一系列其他可能的方法来利用这项技术,包括在搜索引擎的应用中。
虽然聊天机器人已经存在了很多年,但ChatGPT被视为对先前模型的可理解性、流动性和彻底性的显著改进。
OpenAI提供的ChatGPT的复杂性的一个演示包括一个欺骗机器人的提示:询问克里斯托弗·哥伦布(据称)2015年何时来到美国。ChatGPT的回应避开了这个陷阱,澄清了虽然哥伦布在2015年没有来美国,但它说,如果他来了,他(ChatGPT)一定对他的访问做出一些反应。
OpenAI列出了ChatGPT的一些限制,因为它目前存在于模型的演示中。其中包括ChatGPT有时会编写连贯但不正确的语句,它会对不明确的查询进行假设,模型往往过于冗长,以及类似的问题。
在其公开发布的头几周,ChatGPT因其被指控学生用于撰写人工智能书面论文和作业而成为头条新闻。对滥用ChatGPT进行学术作弊的担忧越来越大,以至于普林斯顿大学的一名计算机科学学生创建了一个应用程序,该应用程序旨在识别和揭露机器人创建的写作。
对一些人来说,ChatGPT带来了更严重的风险。例如,一些分析师预测,该机器人可能会被用于使恶意软件和网络钓鱼攻击更加复杂,或者黑客可能会利用该技术开发自己的人工智能模型,而这些模型可能控制得不太好。一些人对ChatGPT可能被用来创建和分享听上去很有道理但是具有误导性的政治性观点或者“政治不正确的”的诱导性文章。