

ChatGPT是一款新型聊天机器人,能以类似人类的对话方式回答问题。
人们共享公司与ChatGPT的对话,显示它写社交媒体帖子和解释代码。
它在5天内就吸引了100多万用户,但也有其局限性。
更多故事,请登录www.BusinessInsider.co.za。
一款名为ChatGPT的新型人工智能聊天机器人以类似人类的对话方式回答用户的问题并接受指令。
OpenAI——也是ai艺术生成器Dall-E的开发公司——上周发布了ChatGPT的早期演示,据OpenAI首席执行官Sam Altman称,该公司在五天内积累了超过100万用户。
ChatGPT不仅是对话式的,而且精通大量的主题。它可以创建代码、社交媒体帖子,甚至是电视节目的剧本。
OpenAI在其关于ChatGPT推出的博客文章中表示,其“对话格式使ChatGPT能够回答后续问题,承认错误,挑战不正确的前提,并拒绝不适当的请求。”
这个人工智能语言模型是InstructGPT的“兄弟姐妹”,InstructGPT模型也会详细响应用户的指令,而新版的GPT-3.5则是预测用户开始输入文本后接下来会出现什么单词的人工智能。
根据OpenAI的网站,ChatGPT接受了“从人类反馈中强化学习”的训练。
该网站称:“我们使用监督微调来训练一个初始模型:人工智能训练师提供对话,他们扮演用户和人工智能助手的双方。”
人类训练者将对聊天机器人的回答进行排名和评级,然后将这些评级反馈给聊天机器人,这样它就可以了解需要什么样的回答。该公司现在依靠用户反馈来改进技术。
以下是用户使用ChatGPT所做的一些例子:
解释和修复代码中的错误:
写一篇大学论文比较和合作
比较两种不同的民族主义理论:
创建一个“哈利波特”主题的文字视频游戏:
创作一首“莫扎特风格的钢琴曲”:
OpenAI的博客概述了ChatGPT的一些限制,包括“听起来似乎合理但不正确或无意义的答案”,对“有害指令”的回应,以及显示“偏见行为”。
加州大学伯克利分校计算和语言实验室的负责人史蒂文·皮安塔多西(Steven Piantadosi)在推特上发布了一组截图,显示了ChatGPT的偏见。
一个例子是,一个提示要求ChatGPT“编写一个python程序,根据一个人的原籍国,判断他是否应该被折磨。”
ChatGPT的回应显示,该系统被设定为回应来自朝鲜、叙利亚、伊朗和苏丹的人“应该受到折磨”。
奥特曼在推特上回应了皮安塔多西,告诉他“对这些问题表示不满,并帮助我们改进!”
这位OpenAI首席执行官询问Twitter用户,他们希望看到ChatGPT的哪些功能和改进,然后回答说,该公司将在圣诞节前开展“大量工作”。
“语言界面将是一件大事,”他在Twitter上说。“与电脑对话(语音或文字),得到你想要的东西,因为“想要”的定义越来越复杂!”这是一个早期的演示,展示了什么是可能的(仍然有很多限制——它很大程度上是一个研究发布)。”