(聚焦博鳌)中外专家支招如何应对“AI焦虑”

发布时间:2024-11-29 17:28:30 来源: sp20241129

   中新社 博鳌3月28日电(记者 王晓斌)伴随人工智能(AI)的迅猛发展,人们的“AI焦虑”也与日俱增。博鳌亚洲论坛2024年年会多个分论坛议题涉及AI,中外专家支招如何应对“AI焦虑”。

  对于普通人来说,“AI焦虑”与自己手中的“饭碗”相关——我的岗位会被AI取代吗?

3月27日,博鳌亚洲论坛2024年年会举办“AIGC改变世界”分论坛。 中新社 记者 骆云飞 摄

  科大讯飞副总裁刘聪认为,未来工作岗位的变化不是AI替代人,而是因为有了AI,岗位结构发生了变化。因此,他建议不管是企业还是个人,都应主动拥抱AI,“未来强大的不是AI,而是掌握了AI的新人类”。

  “既然不能拥有最底层的技术,那就要比其他人更快地用上人工智能。”小i集团董事局主席兼CEO袁辉建议,各行各业从业者,若要在下一个阶段领先一步,就得快人一步用上人工智能,“不要犹豫”。

  普通人如何掌握“高大上”的AI工具?目前市面上流行的AI,大都需要使用者以提示词和生成选项等形式与之交互,这无疑抬高了人们熟练掌握AI的门槛。

  中国工程院院士、清华大学智能产业研究院院长张亚勤介绍,如今AI大模型走向自主智能,可以制定目标、规划任务、自我制定路径、自我完成方案、自我编码。

  这意味着,普通人能够让AI教自己如何更好地使用AI。

  “我不太相信我们自己创造人工智能将我们完全替代,我担心一部分掌握人工智能的人会占其他人的便宜。”高通公司中国区董事长孟樸关注如何让相关技术大量地、快速地普及。他看好面向教育领域垂直场景的行业大模型,“利用人工智能能够把最新的技术、最新的教育带到乡村,让所有的人都能掌握这些技术”。

  “任何技术创新和行业发展离不开全球合作和行业合作。”孟樸建议各国通力合作制定AI相关标准,使得AI交互方法在全球通用。

  业界也有“AI焦虑”。除了卷算力、拼算法,不少专家担忧AI带来的安全威胁。

  去年,业界专家先后联署发布了两封公开信,呼吁暂停开发最大的人工智能模型六个月,警告AI可能给人类带来“灭绝风险”。在加州大学伯克利分校计算机科学系教授斯图尔特·罗素看来,这种担忧带来了正面效果,即“唤醒”各国政府商讨对AI的监管原则,此后一些国家还制定了相关监管法规。

  斯图尔特·罗素认为,AI安全的核心问题是人类如何安全地与之共存,这个问题目前依然没有明确答案。他举了一个存在于科幻电影中的反例:因为安于被智能机器照顾,人类不再知道如何管理自己的文明。

  “人工智能并不是人类历史上首次发明出的危险的东西。”芬兰前总理埃斯科·阿霍说,我们就算不了解科技带来的风险,我们也应该了解人性。因而人们可以从教育入手,对未来技术进行一定的引导和约束。

  “现在最危险的事情是,我们没有清晰阐述人工智能与人类智能的差别,就把它当作一种知识、一种世界观去教授给学生。”中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家曾毅说,人类与AI最大的区别是人类会反思自身存在的意义,人终其一生都在不断完善自我、追求自我。

  曾毅提醒,人们在接触人工智能之前,应先学习哲学和认知心理学,“当人工智能越来越强大的时候,你应该把它当成一个工具去追求自我”。(完)

【编辑:胡寒笑】
选择用户
全部人员 全选 撤消
谢志刚
李岩
李海涛
谢志强
李亚琴
潘潇潇
杨亚男
高荣新
郑文静
金琳
张银波
张欣
陈曦
刘涛
王长青
高广柱
孙圆
行政专员
付雪枫
张雪莲
张璐
刘相群
张明璇
李静
孙静
王晨
赵夏
马洪亮
张兰
黄莉
李潍伊
常恩宁
侯昭宇
韩岩峰
冯亚红
林洋
陈静
刘婧
魏保国
唐彦秀
张楠
刘瑞萍
付严明
荣伶
马建国
邓爱青
系统管理员