四季刊

ChatGPT 已经改变了我的工作方式——《纽约时报》

来自:《纽约时报

2023年4月21日

作者: Farhad Manjoo

一旦开始使用 ChatGPT,你几乎无法停止。你从一些琐碎的、噱头十足的提示开始:做这道数学题;告诉我一些西兰花和豌豆的素食食谱;是先有运动员还是先有的运动短裤?

但是,随着人工智能聊天机器人轻松瓦解你的伎俩,你开始更加认真地对待它。经过几个星期、几个月,你对它进行训练,了解它的能力和不足之处,想象它的好与坏的可能性,它的无处不在和不可或缺的潜力。不久,ChatGPT 开始在你的生活中刻下一个凹槽。现在你可以换个角度思考了ーー与其说它是一匹跳舞的小马,不如说它是一匹干活的马。你会发现自己在做大任务和小任务的时候都需要它,尽管它经常失败,但是它给你的帮助足够大,你可以想象很多人很快就会依赖它。

在我的一生中,类似这种新技术带来的体验只有几次。最后一次是iPhone,其他几次是谷歌搜索和互联网本身。所有这些在一开始都是开创性的,但是没有哪个能在一夜之间改变什么。相反,最引人注目的是想象它们对越来越多的人变得越来越有用是多么容易。苹果公司发布iPhone五年后,似乎所有东西都有了APP,近一半的美国成年人拥有智能手机;再过五年,超过四分之三的人拥有智能手机,很难想象还有什么没被智能手机改变。

ChatGPT给了我同样的感觉。人工智能公司OpenAI发布ChatGPT还不到五个月,它远非完美,OpenAI继续将其称为“研究预览”。尽管如此,正如我在 The Upshot 的同事最近记录的那样,医生、软件工程师、小说作家、全职父母和其他许多人已经开始依赖人工智能完成重要任务。

这也反映了我自己的经历。当我开始了解它能做什么和不能做什么的时候,ChatGPT 已经在我的工作流程ーー以及我的担忧中赢得了一席之地。我一直在思考它的新任务,它可能以不同的方式改变我自己的工作和更大的媒体产业,以及它为新闻业和人们如何获得新闻提出的新的伦理、法律和哲学问题。

我认识的其他技术友好型记者也经历过类似的事情: 突然之间,我们有了像喷气背包一样的东西来绑在我们的工作上。当然,喷气背包有点问题,有时候它会崩溃或燃烧。它的使用规则并不明确,所以你必须非常小心。但是有时候它会一飞冲天,将原本需要花费几个小时的任务压缩到几分钟,有时甚至压缩到几秒钟。

很可能需要多年的反复试验(也许是巨大的错误) ,才能找到适合这个行业的方法。《纽约时报》副总编史蒂夫 · 杜恩斯(Steve Duene)告诉我,新闻编辑部的一个工作组目前正在制定指导方针,并探索报社记者使用聊天机器人的机会。

即使我们正在解决所有这些问题,对我来说,有一点似乎已经很清楚了:越早越好,像 ChatGPT 这样的东西将成为许多记者工具包的常规组成部分。

以下是我使用它的一些方法:

找字。对 ChatGPT 的一个普遍担忧是,人们会把它的内容当作自己的内容来冒充,但我认为这种情况还不会发生。ChatGPT 是一个非常笨拙的作家ーー它的散文枯燥无味,充满了陈词滥调(“人类状况”、“卑微的开始”、“战胜逆境”,陈腐不堪)。

不过,真正有帮助的地方,是挖掘出你在召唤时遇到困难的那个完美的单词或短语。在上面我对喷气背包的比喻中,我最初写道,当喷气背包工作时,它会“尖叫”,我知道“尖叫”是不对的;在 ChatGPT 之前,我可能会使用同义词词典,或者只是用头撞墙,直到找到合适的词。这一次,我只是把整个段落插入到 ChatGPT 中,让它提供替代动词; ”一飞冲天““(soars),它的最佳建议,正是我一直想不起来的词。

这可能听起来像是一个小胜利,但聚沙成塔。我这辈子花了很多痛苦的时间在脑子里寻找合适的词语,ChatGPT 让这个问题成为过去。

克服障碍。《内幕》(Insider)杂志全球主编尼古拉斯•卡尔森(Nicholas Carlson)上周向员工发送了一份备忘录鼓励他们开始谨慎试验 ChatGPT。卡尔森一直在广泛使用聊天机器人,他告诉我,他认为它是“一个双人文字处理器”,可以帮助人们克服日常写作障碍。

以过渡问题为例ーー你已经写了一篇文章的两个部分,却很难写出一个段落,让读者从一个部分转到另一个部分。现在您可以将这两个部分输入 ChatGPT 并询问它的想法。ChatGPT 提出的过渡可能不会很好,但即使是坏主意也能帮助克服障碍。卡尔森告诉我:“作为一个作家,我喜欢从编辑那里得到一个想法,然后重写,直到它成为我的想法。”ChatGPT 的作用就像那个编辑ーー您随时可以使用的朋友。

总结。当大型、复杂的新闻报道(法院裁决、收益报告、政治人物的财务披露表格)被披露时,编辑和记者往往不得不迅速确定新闻的要点,以弄清如何报道。ChatGPT 擅长这种简化:给它一个长文档,它会立即概括出大的主题,看起来很可靠。

卡尔森在唐纳德 · 特朗普被起诉时就是这样使用的:他把起诉文件交给 ChatGPT,要求它提供一份300字的摘要。“我想要一个记者读完整份起诉书,并且非常了解它。”他告诉我,但是在突发新闻的时刻,卡尔森只是想要一个整体的了解。“它做到了,而且很有帮助。”他说。

等等。Carlson 怎么能确定ChatGPT的摘要足够准确,以便他决定如何报道一个故事?或者说,一个记者怎么能确定 ChatGPT 所说的一切都是可靠的呢?

简短的回答是: 不能。众所周知,ChatGPT 和其他人工智能聊天机器人以胡编乱造信息而闻名。它们也是黑匣子。甚至 ChatGPT 的创建者也不完全知道为什么它输出某些特定的想法而不是其他,或者它的偏见如何产生,或者它可能会搞砸的无数其他方式。

这些问题需要我们在使用时非常谨慎ーー据我所知,出版物也非常谨慎(卡尔森也成立了一个工作组,为在 Insider 上使用 ChatGPT 制定指导方针)。

我可以想象 ChatGPT 在新闻业中还有很多其他应用方式:编辑可以使用它来产生标题想法。播客制作人可以问它向嘉宾提些什么问题。当一个记者接触全新话题时,可以要求它推荐该领域五位应该采访的专家,以便跟上进度。

但这其中一些可能会相当成问题。如果ChatGPT参与选择我们谈话的来源或者我们提出的问题,记者的工作将在某种程度上受到这位神秘先知的影响,而我们看不到它的偏见和动机(就目前而言,不用担心,我在没有ChatGPT的情况下找的杜恩斯和卡尔森)。

卡尔森提出了一个我喜欢的想法:将ChatGPT视为一个半可靠的来源。他建议说: “就像对待一个在酒吧喝了三杯酒的大嘴巴吹牛大王,而他却假装什么都知道一样。”你检查消息来源所说的一切ーー很多时候他可能确实在胡扯,但有时候这个大嘴巴结果知道他在说什么。

这就是 ChatGPT 如何改变我自己的行业。我想,类似的棘手问题正困扰着许多其它职业,而这些问题不会有太多简单的答案。