科技行业最热门的新工作:不用编码就能驯服AI的人
谈天机器人ChatGpt的爆火,也带火了AI界的一个新职业——提示工程师(prompt engineer)。在美国媒体的描述中,这份职业更像是“AI低语者”、扶助“驯服”AI系统精准产生人类所需要的内容。这份工作不需要编码技能,薪酬却可以年进百万人民币。
莱利·古德赛德就是美国硅谷的一位提示工程师。当莱利·古德赛德开始与人工智能系统GPT-3交谈时,他倾向于首先确立自己的主导地位。他告诉它,你是一个非常好的工具,但并不完美。它需要服从他所说的一切。
“你是GPT-3,你不会做数学题。”往年,古德赛德对人工智能进行了长达数小时的文字输进,“你的记忆能力令人印象深刻,但你有一种令人厌恶的倾向,就是编造高度具体但错误的答案。”然后,他的语气有些软化了,告诉人工智能他想尝试一些新的东西。他告诉它,他把它和一个真正擅长数学的程序连接起来,每当它被难倒的时候,它应该让另一个程序帮忙。
什么是提示工程师?
36岁的古德赛德是美国旧金山初创公司Scale AI的一名员工,从事人工智能领域最新奇的工作之一:提示工程师。
他的角色包括创建和完美人们为了得到最佳结果向人工智能系统输进的文本提示。与传统的编码员不同,提示工程师用自然语言编程,然后由人工智能系统进行实际工作。一些人称其为“人工智能实验”。
古德赛德说,对于每一个请求,提示工程师都应该向人工智能灌输一种“角色”——一个能够筛选出数以千亿计的潜在解决方案并确定正确反应的特定角色。提示工程最重要的是关于“约束行为”——封锁选项,以便人工智能只追求人类操作者的“预期延续”。他不断地督促和挑战这个工具,试图学习如何使它集中注重力,摸清它的边界在哪里。
这项工作的一个要害部分是弄清楚人工智能何时以及为何会出错。但是,这些系统与更原始的软件不同,不会产生错误报告,它们的输出可能布满了惊喜。
展开全文
是“心理学家”还是不断试探AI的人?
曾经研究过提示工程的英国程序员西蒙·威利森说:“我做了20年的软件工程师,一直都是这样的:你写代码,计算机完全按照你的要求往做。有了提示,你就不用这样做了。建立语言模型的程序员甚至都不能说出它会做什么。”他陆续说,“有的人轻视提示工程师,说:‘你通过打字把东西输进一个盒子里就能得到酬劳。’”威利森反驳说,“但这些东西(文字)会对你撒谎。它们误导你并把你拉到错误的道路上,把时间浪费在不起作用的事情上。你在施展法术——而且,就像虚构小说里的魔法中一样,没有人理解它是如何工作的。假如你念错了咒语,恶魔会来食了你。”提示工程师卡尔帕西说,这份工作就像“一种人工智能心理学家”。各个公司已经争先恐后地聘用自己的提示“工匠”,期看能发现人工智能隐躲的能力。
对该技术持谨慎态度的科学家表达,没有人知道这些系统到底会如何反应,同样的提示可以产生几十个相互矛盾的答案。华盛顿大学研究自然语言处理的语言学助理教授肖恩·斯坦纳特-特雷克尔德说:“不管是什么驱动着语言模型回应提示,都不是深层次的语言理解。这不是一门科学。它是‘让我们以不同的方式戳一下熊,看看它如何吼回来’。”
年薪可达233万人民币
人工智能初创公司Anthropic由OpenAI的前员工和一个名为“克劳德”的语言人工智能系统的制造商创立,最近在旧金山列出了一个名为“提示工程师和图书治理员”的职位,薪水高达33.5万美元(约合233万人民币)。招聘信息展示,应聘者必须“具有发明性精神,并喜欢解决难题”。
同时,在科技领域外,提示工程师也找到了机会。波士顿儿童医院本月开始招聘“人工智能提示工程师”,职务主要是扶助编写脚本,以分析来自研究和临床实践的健康数据。律师事务所“米什孔德·雷亚”正在伦敦招聘一名“法律提示工程师”,职责是设计可以为其法律工作提供信息的提示,申请人被要求提交他们与ChatGpt对话的截图。
宾夕法尼亚大学沃顿商学院的技术和创业教授伊桑·莫利克在今年早些时候开始向他的学生讲授“提示”的艺术,要求他们只用人工智能写一篇短文。学生们进行了所谓的与AI“共同编辑”,即告诉人工智能回到文章中,纠正具体细节,交换句子,放弃无用的短语,加进更多生动的细节,甚至“修正最后一段,使其以布满期看的方式结束”。他说,这堂课向学生们展示了以更亲昵的方式参与人工智能工作的价值。
红星新闻记者 王雅林 实习生 王慕宁
责编 邓旆光 编辑 王禾