如果低级员工都被AI替代,那高级员工从哪来?
2023-04-18 22:00

如果低级员工都被AI替代,那高级员工从哪来?

本文来自微信公众号:人神共奋(ID:tongyipaocha),作者:人神共奋,题图来源:《实习生》


一、一段关于AI的讨论


上周跟几个前同事聚会,他们现在大多自己开公司,而且主要是管理咨询、广告设计、游戏外包等专业类服务,自然要聊起近日大火的ChatGPT、Midjourney等人工智能产品,聊到会不会“利用AI工具减少人力成本”的问题上。


虽然每一个人都有这样的愿望,但大家也都承认,近几年不太可能做到,AI出品的图,几乎每张都需要后期修图,ChatGPT的文字太水了,几乎要压缩掉80%的内容,主要用来配合客户提案的演示。


当然,大家也一致认为,这可能只是暂时的现象,毕竟这几个月来,AI输出的东西已经从“几乎不可用”进步到“修改后可商用”,谁知道它会发展到哪一步呢?


但一个人对AI的信任度的问题,却并非技术进步可以解决,它的生产内容的可控性一般,有时候不管用什么办法都得不到自己想要的。


为什么说这个弱点并非技术进步可以解决呢?


我几年前曾经写过一篇文章,分析优秀员工的价值体系,共三个层次:“可预测、可展望、可控制”,AI的这个弱点让它在可见的当下很难达到“可预测”的要求、可见的未来更无法达到“可展望”的要求(可控制是人际关系和公司文化的要求,对于AI并不适用)


换言之,不想自己的工作被AI取代,就要多多考虑如何在这两点上发挥人类的优势。


先分析一下,什么是“可预测”?


二、可预测


先问个问题:你到一家常去的餐馆吃饭,最贵的主菜,你是点你以前吃过觉得不错的菜呢?还是点没有吃过的新菜?


答案肯定是要看情况,如果是重要的场合,比如请客,当然要点以前吃过觉得不错的菜;如果是家人朋友日常小聚,点一些新出的菜品,说不定会有惊喜。


在考虑员工晋升时也是一样,稳定发挥型的员工,获得晋升机会的可能性更大,因为这是重要的决策,稳健更重要。


这在决策中,被称为“可预测性”或者“确定性”,越是重要的决定,越是如此。


很多人可能不赞同这个观点。确实,实际生活中,答案与公司文化和公司业务类型有关,在核电站工作的人,“创新”是贬义词,在互联网创业企业,“稳重”是对你最大的否定。


但这种差异并不会影响上司最终的选择,“可预测性”是公司持续经营的前提,也事关上司自己的晋升。


AI到底最后会成为员工的工具,还是取代员工,这一点可能正是取决于未来AI生成内容的稳定性,这也是我的前同事们认为,不会马上用AI取代员工的原因。


那么,AI有没有可能通过技术来解决这个稳定性的问题呢?


三、人工智能的幻觉


在微软的一篇论文《Sparks of Artificial General Intelligence: Early experiments with GPT-4》中,列出GPT-4的几个局限性,其中有一条关键问题——透明度、可解释性和一致性。


报告中说:“模型不仅会产生幻觉、编造事实和产生不一致的内容,而且似乎没有办法验证它产生的内容是否与训练数据一致,或者是否是自洽的。”


对于人类而言,这可能是一个好消息,它可能是AI与生俱来的缺陷,源于它的深度学习机制。


很多人以为ChatGPT是一个智能的搜索引擎,能搜索与问题相关的文本资料,再用一定的方式串成一段文本结果,但如果真是如此,ChatGPT就不应产生“事实性错误”,而且不是每次都错,如果你换个方法问,它可能又会纠正这个错误。


模型有些会编造一些训练材料中根本没有的事实,比如有一位澳大利亚的市长,发现 ChatGPT 声称他被判定犯有贿赂罪并被判处监禁,这件事不但是捏造的,甚至训练数据中也没有任何可能误导 ChatGPT的资料,那么,它到底是如何产生这个幻觉的呢?


虽然这一现象在GPT-4中大大降低,但微软的这份报告也承认,没有任何理由认为未来系统升级后,这个缺陷就会改变。因为GPT是一个“黑箱”,我们只知道它的原理,但没有人知道它具体是如何创作出各种结果的。


很多人会想,这个问题可不可能通过写更好的问题,进行多轮沟通来解决呢?


答案是有用,但不能保证一定有用。


原因还是在于“黑箱机制”,当你换了一个问题得到更好的答案时,你并不能保证二者之间的“因果关系”,不能保证它下次还会做对,这跟你平时与下属沟通不同。


人类新同事做错了,你告诉他原因,亲自演示了一遍,并让他重复了几次,他下次做对了,这两者之间的因果关系很强,本质上还是因为你理解人类的学习机制,可以通过重复来获得新技能。


这也涉及人的行为的可解释性,一个人所犯的错误跟任务要求、个性和个人诉求高度相关:如果时间太紧,可能在后半部分完成得非常敷衍;有些错误,不专业的人必犯;有些人不擅长做需要调研的工作,更擅长数据处理,可能对某一个方向比较有兴趣,等等。虽然有些解释比较牵强,但毕竟是一个可以让你安心的解释。


相反,有一些员工做出来的事,永远出乎你的意料,向上和向下偏离都有,这类员工,再优秀你也很难用。


可解释性非常重要,不但与可预测性有关,更关乎你对某一个员工未来的期望——在员工的价值体系中,我称之为“可展望”。


四、可展望


ChatGPT的横空出世,让无数人惊呼,低级白领要被取低了,但有人问了一个尖锐的问题:


“如果低级员工都用AI来替代,那未来的高级专业员工从哪里来呢?”


这就涉及人工智能时代的公司人才培养机制问题。


上学的时候,老师总是喜欢两类学生,第一类是成绩很好而且长期稳定在前几名的,第二类,成绩并不突出,但一直在不断进步,名次不断小幅上升的学生。


其实很多年后,老师更容易记得后一类学生,就是那个高一刚刚进班排名90%以后,到了高三已经进入前10%的那类学生。


这在预期管理中,被称为“超预期”。


但“超预期”有一个自相矛盾的地方,如果你总是“超预期”,那么“超预期”本身反而成了一种“预期”。更何况,你怎么可能每次都超预期呢?


这就取决于上司认为你还有没有“上升空间”。


对于一个人而言,“上升空间”是一个主观的判断,往往是预测者先有一个“预测模型”,而这个模型来源于经验或成见。


比如很多人认为,聪明但不努力的学生,比努力但不聪明的学生,成绩上更有上升空间,这就是一个常见的预测模型。对不对姑且不论,关键是很多人都是这么想的。


那么,影响上司对一个下属的发展空间的预测模型是什么呢?


我们通常所说的工作能力,其实分为两部分:


一部分是利用自己的专业知识解决问题的能力,就是我们通常说的“业务能力”;另一部分是人的职业素质,比如学习创新能力、表达沟通能力、逻辑思考能力、统筹规划能力,这一类能力往往是各领域通用的,我称之为“通用能力”。


很明显,执行层员工,业务能力强就够了,但要往上走,就要能驾驭各职能协同工作,显然“通用能力”更重要。业务能力让你的工作符合预期,通用能力又能展现你的“上升空间”,这就形成了一个常见的“预测模型”。


总结一下:“可预测性”是对当下成绩的判断,“可展望性”,是对未来空间的评估;“可预测性”是对稳定性的判断,“可展望性”,是对成长性的评估。


很明确,AI并不具备“可展望”的属性,它的进步空间无法判断。


所以,无论AI的能力有多强,未来的公司都要培养一部分业务能力强,通胀能力更强的“有空间”的低阶员工。


这一类员工现在就有——管培生。


五、工作在AI时代的建议


未来如果AI真的深度融入工作场景,那么,人类员工可能分为两类,一类是工具类员工,另一类是管培生。


如果你是工具型的员工,你需要比GPT更可预测,这样,人工智能会成为你的工具,而不是替代你的工作,包括:


第一,清晰的建立能力边界——哪些擅长,哪些不擅长。


最重要的是不熟不做,避免犯错,职场是“一错抵三功”,经常犯错就代表你的“可预测性”差。


第二,建立上司的合理预期。


如果你十次有八次把事情做到80分,两次做到60分,上司对你的预期就是80分;如果你十次有六次把事情做到100分,四次不及格,那上司对你没有预期。


后者是现在GPT的现状,而在职场上大部分事情做到80分,是“成本收益比”最高的阶段。


第三,可预测的性格与情绪,让同事和下属知道怎么配合你。


人总有情绪,这是你相对AI而言最大的弱点。我曾推荐了一种“以不变应万变”的职场人际关系策略,核心就是保持你性格的稳定性,内向你就一直内向下去,保守你就始终保守,敏感你就别怕别人说你敏感。 


这么做是增加自己的透明度,增强行动的可预测性,放弃某些眼前利益,让对方放心与你建立长期可持续的合作关系。


如果能够做到这一点,相信大部分人还是更愿意跟真人合作。


不过做到这三点,仍然是工具型员工,仍然在与AI竞争性价比,它对你的替代,不但取决于你的能力,还高度取决于它的使用成本。


想要摆脱工具人的命运,以后就只有“管培生”这一条路,展示你的发展空间,这就是另一个更大的话题了,有兴趣,咱们下回慢慢聊。


本文来自微信公众号:人神共奋(ID:tongyipaocha),作者:人神共奋

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定