AI对人类未来发展的影响,以及我们必须面对的伦理风险
最近AI发展太快了,从ChatGPT诞生到现在也就两三年,变化超过了过去五十年。很多人兴奋,很多人恐惧,今天我从人类社会学和历史发展观的角度,说说我的观点。
从历史发展观看:技术改变分工,不会消灭人类
历史上每次重大技术革命,都有人说”技术会消灭人类工作”,结果呢?
- 工业革命消灭了手工匠人工作,但创造了更多工人岗位,把人类从繁重体力劳动里解放出来
- 信息革命消灭了很多书记员、接线员工作,但创造了更多互联网岗位,把人类从重复信息劳动里解放出来
AI革命也是一样:它消灭的是”重复可标准化的劳动”,解放人类去做更有创造性、更有温度的工作。
这里要纠正一个常见误区:很多人说”AI连creative writing都能写了,还有什么不能干?”
→ AI能写初稿,但不能代替你有个人标签的观点,不能代替你和用户的情感连接,不能代替你做关键决策。
我认为未来分工一定是:
- AI:干重复的、标准化的、不需要情感的活 → 比如写初稿、整理资料、做表格、回答重复问题
- 人类:干需要创造力、需要情感、需要决策判断、需要个人标签的活 → 比如提想法、做决策、和用户连接、坚持你的观点
这不是消灭人类,是解放人类。把人类从枯燥的重复劳动里解放出来,去做更像人的事情,没必要恐惧。
从人类社会学看:最大的风险不是AI替代人类,是伦理治理失序
现在大家都在说”AI替代人类”,我认为最大的风险根本不是这个,是伦理治理跟不上技术发展,权力集中到极少数人手里。
第一个风险:训练数据私有化,知识垄断
现在大模型都是大公司在做,训练数据用了全人类创造的知识——书籍、文章、图片、视频,全都是人类几百年积累下来的公共知识财富。结果训练完了,闭源收钱,全人类共同创造的知识,最后变成少数公司的私产,普通人要用就得按 Token 交钱,这合理吗?
历史上知识本来应该是全人类共享的——印刷术发明出来是为了知识普及,不是为了垄断。现在AI技术进步反而造成知识垄断,这就是最根本的伦理失序。
更讽刺的是:这些大公司训练模型用了这么多人类创作者的内容,付钱了吗?没有,直接拿走用了,最后赚钱是他们的,创作者一分钱拿不到,这合理吗?
第二个风险:深度伪造颠覆信任社会
现在AI能生成以假乱真的图片、视频、声音,GPT-4V就能生成几乎看不出来的假视频,再过三年,普通人肉眼根本分不清网上东西是真的还是假的。
人类社会本来就是建立在”信任”上面:
- 你看到一个视频说某个官员受贿,你分不清是AI改的还是真的,最后真的也变成假的,假的也能说成是真的
- 你和人网上聊天,你分不清对面是人还是AI,骗子可以用AI批量冒充任何人
- 学术论文,你分不清是人写的还是AI写的,同行评审都没法做了
当什么都分不清,社会信任成本会急剧升高——原来签合同看一眼身份证就行,将来可能要做三次生物识别,每个人每天都要花大量精力验证”这是不是真的”,很多事情就干不成了。这才是真的大风险,比”AI替代人类”真实多了。
第三个风险:AI偏见固化,放大社会不公平
AI训练用的是网上现有数据,现有数据里本来就有各种偏见:性别偏见、地域偏见、出身偏见、学历偏见。AI学会了,会把这些偏见固化下来,越用越偏见,反过来放大社会不公平。
举个例子:训练数据里领导岗位都是男性照片多,AI筛简历就会自动给男性打高分,女性就算更优秀也拿不到面试机会。原来只是隐性偏见,AI把它变成了”算法公平”,你连说理的地方都没有。
你不给普通人平等机会,AI帮你强化这个不公平,最后贫富差距越来越大,阶层完全固化,这也是伦理失序。
第四个风险:权力集中,少数人控制所有人的信息投喂
现在每个人看到的信息都是AI推荐的,AI训练了你的偏好,比你自己还懂你,它想给你喂什么观点你就只能看到什么,想引导你的判断太容易了。
选总统选举,AI可以给不同人群喂不同信息,每个人看到的世界都不一样,最后它想选谁就能帮谁赢。
最后就是:少数几家公司控制AI,AI控制所有人的信息摄入,进而控制所有人的观点和投票。权力超级集中在极少数人手里,这对民主社会就是致命的。
我们普通人该怎么办?
我不认同”AI毁灭人类”这种鬼话,那是电影剧情,不是现实。但我也不认同”AI万能,一切都好”这种盲目的乐观。
我的态度:
1. 积极用,但是要清醒
积极用AI帮我们干活,解放我们的时间,但要清楚风险在哪里——知道现在治理没跟上,自己保持警惕,不要把什么都交给AI。
2. 支持开源开放
知识本来就是全人类在历史长河里慢慢积累出来的,不是哪一个公司创造的,现在闭源垄断本质就是把全人类共同财富变成少数公司私产,这不公平。
我支持开源AI,知识本来就该共享,普通人才能用得起,才能打破垄断。
3. 保持独立思考
不管AI给你喂什么信息,结论最后一定自己过一遍脑子,别因为”AI都说了所以就是对的”。AI训练出来的内容都是训练数据里拼出来的,它不会负责,最后错了还是你负责。
4. 把AI当工具,不当主人
AI是帮我们干活的,不是替我们做人生关键决定,最终决定还是人来做,刀在你手里。
前瞻性预测:未来十年会走到哪里?
我认为未来十年一定会走到这几个结果:
1. 分工重组完成
AI干标准化重复劳动,人类干创造性情感性工作,总体工作机会不会减少,只是结构变了——原来做重复劳动的人要转去做需要人的工作,这个转型会痛,但不会没工作,不用怕。
2. 治理一定会跟上
现在治理落后于技术,但人类社会不会看着风险一直不管,迟早会出来一套新的伦理规则:
- AI生成内容必须强制标注,不能让AI假的当真的卖
- 训练数据必须获得创作者授权,不能偷了别人内容还不付钱
- 大模型必须做偏见审计,不能默认就放大不公平
3. 开源一定会起来打破垄断
闭源垄断不可能一直持续,知识垄断走不远,普通人用不起就会有人做开源,最后开源闭源长期共存,普通人才能用上便宜好用的AI。
4. 最终还是人的因素
对普通人来说:AI就是一个工具,你会用,它就是你的放大器,你不会用,才会被替代。
工具永远都是放大你自己:
- 你本来就强,AI帮你干更多活,变得更强
- 你本来就弱,AI也帮不了你,你还是弱
从来不是AI改变你,是你用AI改变你自己。
最后一句话
AI不是魔鬼,也不是天使,它就是一个技术,像火一样:
你会用,它帮你取暖做饭;你不会用,它把房子烧了,怪得着火吗?
问题从来不在AI本身,在使用它的人,在怎么治理它。我们能做的,就是用好它,同时推着社会往正确治理方向走。
你怎么看?欢迎评论区聊聊。