每日经济新闻
要闻

每经网首页 > 要闻 > 正文

中国科学院院士、华科智谷人工智能研究院院长何积丰:大模型仍不具备自主学习的能力,我们要想办法走在AI之前

每日经济新闻 2024-02-03 13:13:03

每经记者 温雅兰    每经编辑 张凌霄    

麦肯锡数据显示,如果将分析的63种生成式AI应用于各行各业,将为全球经济每年带来2.6万亿至4.4万亿美元的增长。

在“瞰见未来”2024复旦管院新年论坛上,中国科学院院士、华科智谷人工智能研究院院长何积丰以《人工智能重塑人类未来》为主题发表演讲,围绕AI重塑社会分工、AI产生的行业变革、如何破解AI安全问题等分享了最新研究与行业洞见。

“在人工智能技术快速发展的阶段,深度学习算法不断迭代。以人工智能技术为代表的革命,实际上是知识生产力的变革,是知识革命。”何积丰在接受《每日经济新闻》记者采访时如是说。

中国科学院院士、华科智谷人工智能研究院院长何积丰 图片来源:主办方供图

挑战:成本消耗与安全隐患

人工智能学习知识的速度是人类平均速度的一倍以上,但是所需的时间只要人类的40%左右。

“人类从小学到大学毕业大概需要十六年时间,而预计2026年前后,大模型就可以消化人类历史上所有有价值的文字数据。”何积丰说,“据不完全统计,人工智能的行业采用率达到60%左右,与各行业的关系非常密切。”

但是我们不得不意识到强大的生产力背后所隐藏的安全隐患。活动现场,何积丰向大家介绍了人工智能的安全隐患客观上会产生的两大威胁。

第一,大模型开启了真正意义上的通用人工智能,但是我们是否有能力驾驭这一比人类学习能力更强、更聪明的“物种”?何积丰表示,这个问题目前并没有明确的答案,我们仍在探索之中。
第二,大模型的通用能力让其能够应用到人类生产生活的各个场景中,可谓“无孔不入”。“一旦AI出现安全问题,其影响将难以预估。”何积丰说。

谈及安全问题,数据隐私安全往往是社会公众最为关注的。

何积丰解释说,大模型时代的隐私安全问题涉及到三个纬度。首先,训练过程会涉及大量用户个人信息和数据;其次,使用过程会涉及很多用户私密信息,这些信息没有受到应有的保护;最后,生成能力让“隐私泄露”的方式变得多样化,也让隐私保护更加困难。

“在提供大模型训练数据的过程中,虽然可以通过脱敏处理使数据更加抽象和类型化,但因为大模型可以进行跨领域的交叉推理,所以依然能够还原原始数据里的信息。”何积丰解释道,“除了在训练过程、使用过程中可能发生数据隐私泄露,生成式大模型依靠语料库,还会按照‘意志’对数据进行修改,而为搜索引擎建立的数据保护策略对大模型也无法奏效。”

此外,何积丰在采访中也表示,能源的大量消耗也是人工智能技术发展必须面对的一大挑战。在大模型训练过程中,大约有65%的成本都是能源消耗,虽然大模型具有强大的学习能力,能够成为人类的助手,但是其开发的代价也是极大的。

何积丰表示,在未来一段时间内,我国人工智能技术的主攻方向将聚焦于解决软件和硬件的融合问题、跨行业的多模态融合和提升使用便捷度三个方向。
“大模型受欢迎的原因就在于可以使用自然语言。在人机界面使用自然语言是极大的突破,当界面越容易使用,使用者就越多,市场面也就更广。”何积丰对记者说。

赋能:充分发挥人类的主观能动性

大模型拥有超强的学习能力和问题分析能力,学会运用技术,是我们不会被“替代”的关键之一。

何积丰介绍,目前AI取代人类工作的时间被大幅提前了10年,在2030年至2060年间,50%的职业将逐步被AI取代。“AI也会对个人工作产生重要影响。例如,AI可以使60%-70%的工作实现自动化,对高学历、高收入的知识工作者影响更大。”

那么,我们如何做才能与技术“和平共处”?

事实上,任何技术的发展都会在淘汰落后技术相关岗位的同时,生成新技术相关岗位。

何积丰表示,我们必须意识到,人类进行技术研发是为了有智能助手来帮助我们提升效率,而并不希望出现“教会徒弟,饿死师傅”的情况。所以人要专精自己的优势和专业领域,不断提高自己的专业水平,思考如何把AI应用到自己的专业中,提高自己的产出效率。同时,不断接收新信息、拥抱新变化,拓展自己的事业,接触更多的人和行业。

此外,何积丰在采访中也从教育的角度出发,向教育工作者提出几点建议。他认为,我们要不断培养学生的好奇心和他们探索知识的能力。“当前的大模型技术仍不具备自主学习的能力,所以我们要想办法走在AI之前,发挥人的主观能动性。”

如需转载请与《每日经济新闻》报社联系。
未经《每日经济新闻》报社授权,严禁转载或镜像,违者必究。

读者热线:4008890008

特别提醒:如果我们使用了您的图片,请作者与本站联系索取稿酬。如您不希望作品出现在本站,可联系我们要求撤下您的作品。

欢迎关注每日经济新闻APP

每经经济新闻官方APP

0

0