(资料图片仅供参考)

凤凰网科技讯 北京时间12月23日消息,据彭博社报道,随着ChatGPT的爆火,出现了一些学生在论文中使用ChatGPT作弊的现象,有专家建议最好只在小说或娱乐中使用它。普林斯顿大学计算机科学教授Arvind Narayanan也在他的博客标题中总结了这一技术,“ChatGPT是一个胡扯生成器。但它仍然非常有用”。

每个应用程序都要求用户描述他们想要看到的东西——比如,一只穿着正装的狐狸在汉堡王用餐——它会把写下的短语变成一件艺术品,然后就出现了ChatGPT,这是一种几乎可以回答任何问题的聊天机器人,它回答的结果通常会令人惊讶与信服。

支撑这些新系统的技术被称为生成式人工智能,因为它可以生成全新的东西,而不是重复软件已经看到的文字或图片。它源于OpenAI在生成预训练转换器(Generative Pre-trained Transformer)上的工作,这是一系列旨在总结文本和回答问题的自然语言处理模型。OpenAI于2018年首次发表了这一领域的研究。OpenAI和微软公司的GitHub已经开发出了使用这种技术来帮助编码的工具。结果不是由人类创造的,但它做了一个相当好的模仿,不是艺术或作者,而是两者的模仿。

ChatGPT可以回答后续问题、编写和调试编程代码,以特定作者的风格发布推文,并制作食谱。OpenAI的主要支持者微软(Microsoft)正在将Dall-E添加到其设计软件中,以帮助客户创建图形和社交媒体帖子等内容。Dall-E已经拥有超过600万用户,在预览版发布后的五天内,有超过100万人尝试了ChatGPT。Lensa也是一款应用程序,它使用Stable Diffusion从自拍中创造出奇幻的人工智能化身,在过去几周内迅速走红。

尽管这些应用程序令人印象深刻,但它们存在严重缺陷。除了令人毛骨悚然的手指,Dall-E、Stable Diffusion和GitHub的编码工具也引发了关于版权和未经同意使用内容的问题。ChatGPT有时会吐出令人捧腹的错误,并经常回复一些看似可信但实际错误的答案,只有专家才能发现这种问题。这可能就是为什么OpenAI首席执行官Sam Altman说“在任何重要的事情上依赖它是一个错误”。不过抛开缺陷看,这些进步都将是有意义的。

推荐内容