言论

人工智能和演算法/黄子伦

自从ChatGPT走进大众眼帘后,人工智能取代人类工作的声浪达到了空前高度,加上时不时传出这些人工智能已经通过了某些难度极高的专业考试,你说我们这些人类没有焦虑,肯定是骗人的。

当然,还要算上各种互联网信息的夸张吹捧。

我认为这些人工智能取代人类工作还有很长一段距离,就像创新工场创始人李开复所说的,你越把人工智能拟人化,那么它就会让你越失望,因为目前许多人工智能依然是单一功能的强人工智能。

不过,有很多工作是可以交给人工智能处理的,尤其是那些重复乏味,而且人类容易出错的工作,交由人工智能处理最佳。

不过,这当中有不少一些问题需要处理,尤其是那些迷信人工智能或者演算法的企业。

封死顾客投诉管道

当他们把这类工作都交给人工智能处理,常常会忽略了现实层面的各种变化,其中最要命的是,一些大企业甚至会把顾客投诉的管道给封死。

就拿人们常使用的脸书来说好了,Meta公司内部有人工智能审查,会辨别照片或者影片的内容是否违反该平台的 “社区守则” ,如果需要人类审视就会被提升到下一个层级来审查。

至于这些守则是否公允就见仁见智了。这些工作在那些明显不过的例子里,自然是没什么争议。

然而,当用户有争议,想要上诉时,却发现压根儿没有一个正规管道给你联系,不管是电邮、电话、地址,还是聊天机器人。或者在客服的那端,他们只是不断重复着这些是公司的人工智能或者演算法的决定,他们没有权力更改。

有些大企业索性不装了,也不告诉用户应该遵守什么守则,只是告诉你有条红线不能触碰。

即使你很靠近这条红线,他们也不发出任何警告。

当内部演算法判定了某些用户触及红线,直接在系统上屏蔽用户。

这种做法不但可以把诠释权牢牢握在手里,甚至可以会逼着用户开始自我审查以免触犯红线,从精神上奴隶用户,用人工智能和演算法来打造自己的霸权行为。

这就像是电影《关键报告》里,阿汤哥对人工智能深信不疑,认为他是在预防社会里的未来犯罪。直到自己成为人工智能眼中的下一个 “未来罪犯” 时,才发现自己要对抗的是一整个社会系统。

反应

 

国际

中美首次举行会议 商讨AI技术风险

(日內瓦15日讯)中国和美国14日在瑞士日内瓦举行人工智能(AI)政府间对话首次会议,双方介绍了各自对AI技术风险的看法和治理举措以及推动AI赋能经济社会发展采取的措施。

会议由中国外交部北美大洋洲司司长杨涛和美国国务院关键和新兴技术代理特使森特、白官国安会技术和国家安全高级主任查布拉共同主持,中方科技部、发改委、国家网信办、工信部、中央外办以及美方白官国安会、国务院、商务部派人参加。

中国强调,中方始终坚持以人为本,确保AI技术安全、公平,并支持加强AI全球治理,愿同各国沟通,形成具有广泛共识的全球AI治理框架和标准规范。同时,中国就美国在AI领域对华限制打压表明严正立场。

双方均认识到AI技术发展既面临机遇也存在风险,重申继续致力于落实两国元首在旧金山达成的重要共识。

核武不能交AI

据悉,美中两国都在民用和军用AI方面投入巨资,但中国一直“不愿”与美国讨论AI风险。美国国务院曾向中国和俄罗斯施压,要求两国声明只有人类可以做出部署核武器的决定,而绝不可能将这一任务交给AI。

美国国务卿布林肯和中国外交部长王毅曾在4月提出了AI话题,并同意就此主题举行首次正式双边会谈。

反应
 
 

相关新闻

南洋地产