干货:AI对人类未来发展的影响,以及我们必须面对的伦理风险

AI对人类未来发展的影响,以及我们必须面对的伦理风险

最近AI发展太快了,从ChatGPT诞生到现在也就两三年,变化超过了过去五十年。很多人兴奋,很多人恐惧,今天我从人类社会学和历史发展观的角度,说说我的观点。

从历史发展观看:技术改变分工,不会消灭人类

历史上每次重大技术革命,都有人说”技术会消灭人类工作”,结果呢?

  • 工业革命消灭了手工匠人工作,但创造了更多工人岗位,把人类从繁重体力劳动里解放出来
  • 信息革命消灭了很多书记员、接线员工作,但创造了更多互联网岗位,把人类从重复信息劳动里解放出来

AI革命也是一样:它消灭的是”重复可标准化的劳动”,解放人类去做更有创造性、更有温度的工作。

这里要纠正一个常见误区:很多人说”AI连creative writing都能写了,还有什么不能干?”

→ AI能写初稿,但不能代替你有个人标签的观点,不能代替你和用户的情感连接,不能代替你做关键决策

我认为未来分工一定是:

  • AI:干重复的、标准化的、不需要情感的活 → 比如写初稿、整理资料、做表格、回答重复问题
  • 人类:干需要创造力、需要情感、需要决策判断、需要个人标签的活 → 比如提想法、做决策、和用户连接、坚持你的观点

这不是消灭人类,是解放人类。把人类从枯燥的重复劳动里解放出来,去做更像人的事情,没必要恐惧。

从人类社会学看:最大的风险不是AI替代人类,是伦理治理失序

现在大家都在说”AI替代人类”,我认为最大的风险根本不是这个,是伦理治理跟不上技术发展,权力集中到极少数人手里

第一个风险:训练数据私有化,知识垄断

现在大模型都是大公司在做,训练数据用了全人类创造的知识——书籍、文章、图片、视频,全都是人类几百年积累下来的公共知识财富。结果训练完了,闭源收钱,全人类共同创造的知识,最后变成少数公司的私产,普通人要用就得按 Token 交钱,这合理吗?

历史上知识本来应该是全人类共享的——印刷术发明出来是为了知识普及,不是为了垄断。现在AI技术进步反而造成知识垄断,这就是最根本的伦理失序。

更讽刺的是:这些大公司训练模型用了这么多人类创作者的内容,付钱了吗?没有,直接拿走用了,最后赚钱是他们的,创作者一分钱拿不到,这合理吗?

第二个风险:深度伪造颠覆信任社会

现在AI能生成以假乱真的图片、视频、声音,GPT-4V就能生成几乎看不出来的假视频,再过三年,普通人肉眼根本分不清网上东西是真的还是假的。

人类社会本来就是建立在”信任”上面:

  • 你看到一个视频说某个官员受贿,你分不清是AI改的还是真的,最后真的也变成假的,假的也能说成是真的
  • 你和人网上聊天,你分不清对面是人还是AI,骗子可以用AI批量冒充任何人
  • 学术论文,你分不清是人写的还是AI写的,同行评审都没法做了

当什么都分不清,社会信任成本会急剧升高——原来签合同看一眼身份证就行,将来可能要做三次生物识别,每个人每天都要花大量精力验证”这是不是真的”,很多事情就干不成了。这才是真的大风险,比”AI替代人类”真实多了。

第三个风险:AI偏见固化,放大社会不公平

AI训练用的是网上现有数据,现有数据里本来就有各种偏见:性别偏见、地域偏见、出身偏见、学历偏见。AI学会了,会把这些偏见固化下来,越用越偏见,反过来放大社会不公平。

举个例子:训练数据里领导岗位都是男性照片多,AI筛简历就会自动给男性打高分,女性就算更优秀也拿不到面试机会。原来只是隐性偏见,AI把它变成了”算法公平”,你连说理的地方都没有。

你不给普通人平等机会,AI帮你强化这个不公平,最后贫富差距越来越大,阶层完全固化,这也是伦理失序。

第四个风险:权力集中,少数人控制所有人的信息投喂

现在每个人看到的信息都是AI推荐的,AI训练了你的偏好,比你自己还懂你,它想给你喂什么观点你就只能看到什么,想引导你的判断太容易了。

选总统选举,AI可以给不同人群喂不同信息,每个人看到的世界都不一样,最后它想选谁就能帮谁赢。

最后就是:少数几家公司控制AI,AI控制所有人的信息摄入,进而控制所有人的观点和投票。权力超级集中在极少数人手里,这对民主社会就是致命的。

我们普通人该怎么办?

我不认同”AI毁灭人类”这种鬼话,那是电影剧情,不是现实。但我也不认同”AI万能,一切都好”这种盲目的乐观。

我的态度:

1. 积极用,但是要清醒

积极用AI帮我们干活,解放我们的时间,但要清楚风险在哪里——知道现在治理没跟上,自己保持警惕,不要把什么都交给AI。

2. 支持开源开放

知识本来就是全人类在历史长河里慢慢积累出来的,不是哪一个公司创造的,现在闭源垄断本质就是把全人类共同财富变成少数公司私产,这不公平。

我支持开源AI,知识本来就该共享,普通人才能用得起,才能打破垄断。

3. 保持独立思考

不管AI给你喂什么信息,结论最后一定自己过一遍脑子,别因为”AI都说了所以就是对的”。AI训练出来的内容都是训练数据里拼出来的,它不会负责,最后错了还是你负责。

4. 把AI当工具,不当主人

AI是帮我们干活的,不是替我们做人生关键决定,最终决定还是人来做,刀在你手里。

前瞻性预测:未来十年会走到哪里?

我认为未来十年一定会走到这几个结果:

1. 分工重组完成

AI干标准化重复劳动,人类干创造性情感性工作,总体工作机会不会减少,只是结构变了——原来做重复劳动的人要转去做需要人的工作,这个转型会痛,但不会没工作,不用怕。

2. 治理一定会跟上

现在治理落后于技术,但人类社会不会看着风险一直不管,迟早会出来一套新的伦理规则:

  • AI生成内容必须强制标注,不能让AI假的当真的卖
  • 训练数据必须获得创作者授权,不能偷了别人内容还不付钱
  • 大模型必须做偏见审计,不能默认就放大不公平

3. 开源一定会起来打破垄断

闭源垄断不可能一直持续,知识垄断走不远,普通人用不起就会有人做开源,最后开源闭源长期共存,普通人才能用上便宜好用的AI。

4. 最终还是人的因素

对普通人来说:AI就是一个工具,你会用,它就是你的放大器,你不会用,才会被替代。

工具永远都是放大你自己:

  • 你本来就强,AI帮你干更多活,变得更强
  • 你本来就弱,AI也帮不了你,你还是弱

从来不是AI改变你,是你用AI改变你自己。

最后一句话

AI不是魔鬼,也不是天使,它就是一个技术,像火一样:

你会用,它帮你取暖做饭;你不会用,它把房子烧了,怪得着火吗?

问题从来不在AI本身,在使用它的人,在怎么治理它。我们能做的,就是用好它,同时推着社会往正确治理方向走。

你怎么看?欢迎评论区聊聊。