一旦你开始使用ChatGPT,你几乎无法停止。你从琐碎的、花哨的提示开始:做这个数学问题。告诉我一些西兰花和豌豆的素食食谱。

但是,随着人工智能聊天机器人轻松得到你的注意力,您开始更加认真地对待它。在几周和几个月的时间里,你捣鼓它,了解它的能力和缺陷,想象它的好和坏的可能性,它无处不在和不可或缺的潜力。很快,ChatGPT开始在你的生活中刻下一条槽。现在你对它的看法不同了——与其说是一匹跳舞的小马,不如说是一匹工作的马。你发现自己在大任务和小任务中都用它,虽然它经常失败,但它也帮得上很大的忙,你可以想象很多人很快就会依赖它。

在我的生命中,只有几次我经历过新技术的这种可能性的感觉。最后一次是iPhone;其他的可能是谷歌搜索和互联网本身。所有这些在开始时都是开创性的,但没有一个在一夜之间改变任何事情。相反,最引人注目的是想象它们对越来越多的人越来越有用是多么容易。在苹果推出iPhone五年后,仿佛有一个应用程序可以解决所有问题,近一半的美国成年人拥有智能手机;再过五年,只有四分之三多的人有智能手机,很难想象智能手机没有改变什么东西。

ChatGPT给人带来相似的感觉。自人工智能公司OpenAI发布其聊天机器人以来还不到五个月。ChatGPT远非完美;OpenAI继续将其称为“研究预览”。尽管如此,正如我在The Upshot的同事最近所记录的那样,医生、软件工程师、小说作家、全职父母和许多其他人已经开始依赖人工智能来完成重要任务。

这些叙述与我自己的经历相呼应。当我开始了解它能做什么和不能做什么时,ChatGPT 在我的工作流程中赢得了一个固定的位置——也是我的担忧。我一直在思考它的新任务,它可能会改变我自己的和更大的媒体公司的工作方式,以及它为新闻业以及人们如何获取新闻提出的新的道德、法律和哲学问题。

我认识的其他技术友好型记者也经历过类似的事情:突然之间,我们有了类似喷气背包的东西来绑在我们的工作上。当然,喷气背包有点越野车。是的,有时它会崩溃和燃烧。而且它的使用规则并不明确,所以你必须非常小心。但有时它会起飞,将原本需要数小时的任务缩减到几分钟,有时甚至几分钟到几秒钟。

这很可能需要多年的反复试验——也许需要犯巨大的错误——才能弄清楚它应该如何适应这个行业。《纽约时报》副总编辑史蒂夫·杜恩斯(Steve Duenes)告诉我,新闻编辑室的一个工作组目前正在制定指导方针,并探索该报记者使用聊天机器人的机会。

即使我们正在弄清楚所有这些,对我来说,这一点似乎已经很清楚了:像ChatGPT这样的东西迟早会成为许多记者工具包的常规部分。

以下是我一直在使用它的一些方法:

找词。关于 ChatGPT 的一个常见担忧是人们会将其内容伪装成他们自己的内容,但我认为这还没有到来。ChatGPT是一个非常笨拙的作家——它的散文沉闷,充满了陈词滥调(“人类状况”,“卑微的开端”,“战胜逆境”)。

然而,它真正有帮助的地方是挖掘出你难以召唤的完美单词或短语。在我上面的喷气背包比喻中,我最初写道,当喷气背包工作时,它会“尖叫”。我知道“尖叫”是不对的;在 ChatGPT 之前,我可能会使用同义词库,或者只是把头撞在墙上,直到找到正确的词。这次我只是将整个段落插入 ChatGPT 并要求它提供替代动词;“翱翔”,它的第一个建议,是我一直找不到的词。

这听起来像是一个小小的胜利,但这些事情加起来。我一生中花了很多痛苦的时间来寻找正确的词。ChatGPT正在使这个问题成为过去。

不再被卡住。Insider的全球主编尼古拉斯·卡尔森(Nicholas Carlson)上周向他的员工发送了一份备忘录,鼓励他们开始谨慎地尝试使用ChatGPT。卡尔森一直在广泛使用聊天机器人,他告诉我,他开始认为它是一个“双人文字处理器”,可以帮助人们克服写作中的常规绊脚石。

以过渡问题为例——你写了一篇文章的两个部分,你正在努力写一个段落,将读者从一个部分带到另一个部分。现在您可以将这两个部分插入 ChatGPT 并询问它的想法。ChatGPT 提议的过渡可能不会很好,但即使是坏主意也有助于克服障碍。“作为一名作家,我喜欢从编辑那里得到一个想法,重写,直到它是我的,”卡尔森告诉我。ChatGPT 充当编辑器 - 您始终可用的吐槽朋友。

总结。当重大而复杂的新闻报道爆发时——法院裁决、收益报告、政治家的财务披露表格——编辑和记者往往必须迅速确定新闻的要点,以弄清楚如何报道它。ChatGPT擅长这种归结:给它一个长文档,它会立即并且似乎可靠地拉出大主题。

卡尔森在唐纳德·特朗普被起诉时是这样使用的:他给了ChatGPT起诉文件,并要求它提供300字的摘要。“我希望记者阅读整个起诉书并非常了解它,”他告诉我,但在突发新闻的那一刻,卡尔森只是想要大局。“它做到了,而且很有帮助,”他说。

但是等一下。卡尔森怎么能确定ChatGPT的摘要足够准确,让他可以依靠来决定如何报道一个故事?更一般地说,任何记者如何确定ChatGPT所说的任何内容都是可靠的?

简短的回答是:不能。众所周知,ChatGPT 和其他聊天机器人会编造东西或以其他方式发布不正确的信息。它们也是黑匣子。甚至 ChatGPT 的创建者也不完全知道为什么它提出了一些想法而不是其他想法,或者它的偏见以哪种方式运行,或者它可能搞砸的无数其他方式。

这些问题要求在使用时非常谨慎——据我所知,出版商正在谨慎行事。(卡尔森也成立了一个工作组,为Insider公司使用ChatGPT制定指导方针。

我可以想象 ChatGPT 在新闻业务中的使用方式还有很多其他方式:编辑可以调用它来生成标题创意。音频制作人可以向它询问播客嘉宾的采访问题。记者接近一个新话题可能会要求它推荐五位专家交谈,以加快速度。

但其中一些可能很有问题。如果ChatGPT参与选择我们与之交谈的消息来源或我们提出的问题,记者的工作将在某种程度上受到这个神秘的神谕的影响,我们看不到它的偏见和动机。(现在,别担心,我自己找了杜恩斯卡尔森,没有借助ChatGPT的帮助。

卡尔森提出了一个我喜欢的想法:将ChatGPT视为一个半可靠的来源。“相信它,就像你相信一个在酒吧里吹三杯酒的喋喋不休的人一样,他假装什么都知道,”他建议道。你检查消息来源所说的一切——很多时候这可能是胡说八道,但有时胡言乱语的人会知道他在说什么。

这就是ChatGPT改变我自己行业的方式。我想类似的棘手问题正在困扰许多其他职业,并且不会有太多简单的答案。文章来源:《纽约时报》观点专栏作家Farhad Manjoo