{dede:global.cfg_webname/}

当前位置: 首页 > 资讯 > 互联网 > 正文

这两天,一个叫做“提示工程师”的新岗位悄悄出现在了招聘市场上

来源:量子位     时间:2023-03-03 21:02:14

  2023年3月3日讯:普通人靠ChatGPT年薪百万的机会也来了?

  这两天,一个叫做“提示工程师”的新岗位悄悄出现在了招聘市场上:

  不用写代码、不用计算机专业、也不要求学历,就研究怎么跟ChatGPT“聊天”,年薪居然开到了25万美元-33万美元,折合人民币下来足足170万+。

  不信?有图有真相:

  OpenAI CEO山姆大哥都说,如果会给聊天机器人写prompt,那可是个强技能点啊。

但我,还真有点不敢信……

  虽说ChatGPT它现在是火得发紫,围绕它创业的创业,投资的投资,抢人的抢人,不承认热闹是不行的。

  但与此同时,各种不沾边的东西也盯上它了,比如诈骗啊钓鱼啊。

  这区区一个提示工程师,给这么多工资,它真的靠谱吗?

ChatGPT催生的新岗位

  靠不靠谱,还得先看看它究竟是干什么的。

  这么说吧。想想你在玩ChatGPT甚至是在以前玩AI画画的时候,是不是用词很匮乏?套路很简单?

  以至于大家都说它们很厉害,但你总是得不出很满意或惊艳的结果?

  这个岗位就是为了解决这个问题而生。

  事实上,它最早的雏形可以说是从AI画画开始的。

  2021年7月那会儿,AI画画效果一般也还没出圈,有人发现只要在提示词中加上“虚幻引擎”,画质就瞬间飙升。

  类似地,在ChatGPT中,也有人发现,如果它一开始答错了你出的题,不要嫌弃,试试和它说一句“let’s think step by step”,它可能就改对了!

  这,就是提示工程的意义:用合适的描述让AI发挥出最大的潜力

  从上面两个简单的例子也可以看出来,这份工作可能没有那么难,似乎具备脑洞和探索精神就行。

  现在,我们就从开头提到的这份招聘启事,来证实一下我们的猜测。

  这份招聘来自Anthropic,就是由GPT-3核心成员出走成立的那家AI公司,谷歌在上面斥资了3亿元,现在估值约50亿美元。

  Anthropic对这个岗位开出了如此高的年薪,对申请人具体都有啥要求呢?

  一共8条:

  1、具有创造性的黑客精神,喜欢解谜

  2、善于沟通,喜欢教授技术概念、创建能够帮助他人的高质量文档。

  3、至少对大型语言模型的架构和运转有较高的熟悉度。

  4、至少具备基本的编程和QA技能,并且能够轻松编写小型Python程序。

  5、具有组织思维,喜欢从头开始组建团队。思考问题全面,并能够主动提出需求。

  6、可以让模棱两可的问题变得清晰,并能找出场景多变的问题中的核心规律。

  7、对技术的安全和社会规范有兴趣,能够预测风险,模拟情景,并为内部利益相关者提供可操作的指导。

  8、能够超越既有范式创造性地思考新技术带来的风险和好处,能够保持对新兴研究和行业趋势的兴趣,随时了解最新情况。

  总的看下来,Anthropic对提示工程师的能力要求都比较泛泛,哪有年薪百万这种岗位该有的样子?(狗头)

  唯一看起来硬性要求的是第3和第4条:熟悉LLM架构,会编程。

  前者可以临时“恶补”,后者要求也很一般——和动辄卡博士、卡名校计算机相关专业的AI圈相比,简直是不值一提。

  而Anthropic也在启事末尾说了:

  不见得所有要求都得全中啊,请不要过早地排除自己,觉得感兴趣的就来。

  得,敢情只要咱对怎么更好地写提示语这样事儿有sense,即使是个没有高学历、编程一般、非计算机专业的普通人,都有机会蹭一波ChatGPT的福利冲一下年薪百万?

  可能还真不是唬人。

  事实上,提示工程这个领域的历史统共也才不到两年,作为一个完全新兴领域的新岗位,具体的标准可以说都还不知从哪里定起。

  这也就是给了咱普通人入场的机会。

  这不,就在去年12月的时候,一位小哥因为非常擅长引导ChatGPT“做事”,拿到了硅谷独角兽公司Scale AI的offer,这应该就是有史以来的首个提示工程师了。

  小哥因为这个offer连本职工作也不要了,可想开价是诱人的。

  具备普适性吗?

  而且现在不止一家公司在招聘提示工程师了。

△写稿时又发现一家,来自法律行业

  还有业内大佬特斯拉前AI总监Andrej Karpathy(现已入职OpenAI)也公开表示看好提示工程师。

  他调侃说,因为这个新岗位,英语都是目前最火的编程语言了。

  因此不由得想问:以后对话提示工程师会越来越多吗?中国呢?

  要想回答这个问题,还得思考这个岗位的本质到底是什么。

  如一些观点认为,提示工程师这个概念的诞生,其实说明了对话式AI的最大缺点——

  还不够聪明。

  因此它需要精心设计的提示词进行引导,才能达到用户想要的结果。

  这不,网友们也自发总结了很多prompts,GitHub的相关项目标星都已经到2.7w了。

  不过,随着技术的成熟,AI会越来越聪明,可以直接理解我们的意图给出满意的答案,因此这个做法可能就变得非必需——那么到时,提示工程师这个职业可能也就变得多余了。

  更有甚者表示,可能不用等到那天,一旦于提示词文档完善起来,整个流程变得标准化,这个工种就不被需要了。

  等等,这意味着做这行,或许也就赚个快钱

  还没法马上下定论。

  不过可以确定的是,既然连GPT-3核心成员出走成立的公司都需要这样的岗位,那“中国版OpenAI”们不得也需要——且人数可能相比更多?

  盆友们,这属实是福音啊。

  至少,合理合法。

  还有更野的路子

  通过ChatGPT赚钱暴富,也有别的路子,有点野,距离第一批坐牢名单也不远。

  自ChatGPT诞生以来,黑客和网络骗子那边也是非常骚动的。

  Telegram上出现了一些bots,正在调用OpenAI的API来用ChatGPT生成恶意软件和代码。达到这些bots的使用上限后,将收取一定费用,每100次仅需5.5美元。

  其他社区还出现了一些绕过ChatGPT限制的方法。如果实现,意味着犯罪分子使用ChatGPT没有限制次数,并能生成恶意软件代码。

  网安大厂Check Point在1月份,就在黑客社区发现了使用ChatGPT攻击的痕迹。

  并且自己尝试了几种让ChatGPT网络攻击的方法,效果都好得恐怖。

  比如它生成钓鱼邮件的效果:从文本到代码,都能自己写,还能按照要求不断迭代升级。

  不过这种滥用情况也在一定程度上被解决,所以黑客们改调用API了……

  比如调用ChatGPT底层模型之一text-davinci-003的API,能通过一封钓鱼软件和一个脚本,快速窃取用户的PDF文档,并通过FTP发送给攻击者。

  总之,ChatGPT现在还阴差阳错黑客的门槛给打下来了,就算是技术渣也能搞点危险动作了……

  另一头,电信诈骗想要骗人骗财,恐怕也会更容易了。

  比如在刚刚过去的情人节期间,有机构(McAfee)做了个实验,给5000个用户发一封由ChatGPT写的情书,结果只有不到三分之一的人觉得这是出自AI之手。其他的人要么觉得这就是人类自己的写的,要么实在难以分辨。

  问题是ChatGPT势不可挡,网聊APP(如OkCupid)已经主动接入ChatGPT。虽然公司负责人已经呼吁大家不要滥用AI,但目前没有发布具体政策来进行限制。

  而McAfee的数据显示,有30%的调查用户选择用AI帮自己写个人资料。

  再配合上前几天爆火的AI女友,怕不是一个新的产业链要形成了……

  咳咳,冷静。

  如果当不了第一批因为ChatGPT富起来的人,那也不要当第一批因为ChatGPT进局子的人(认真脸.jpg)。

  如此看下来,还是提示工程师靠谱一些,不是吗?

  参考链接:

  [1]https://arstechnica.com/information-technology/2023/02/now-open-fee-based-telegram-service-that-uses-chatgpt-to-generate-malware/

  [2]https://research.checkpoint.com/2023/opwnai-cybercriminals-starting-to-use-chatgpt

  [3]https://dataconomy.com/2023/01/what-is-ai-prompt-engineering-examples-how/

  [4]https://www.ft.com/content/0deda1e7-4fbf-46bc-8eee-c2049d783259

声明:来源非IT商业科技网的作品均转载自其它媒体,转载请尊重版权保留出处,一切法律责任自负。文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。转载稿件或作者投稿可能会经编辑修改或者补充, 如有异议可投诉至:Email:342 4350 938@qq.com

频道精选

2017-2019 Copyright © IT商业科技网 备案许可证号粤ICP备2022153948号 豫公网安备110102003388号

紧急处理QQ:342 4350 938@qq .com