欢迎光临散文网 会员登陆 & 注册

新技术通病:生成式AI能否逃得过双刃剑的命运?

2023-07-19 10:47 作者:实在RPA_IPA  | 我要投稿

AI行业到了一个新的历史时刻。


自3月以来,国内大模型进入“井喷”状态,从互联网巨头到IT、AI企业,从科研机构到科创企业,大家对AI大模型都趋之若鹜,短时间内纷纷推出自有的大模型产品。5月以来,大模型产品以每日一款的速度扎堆诞生,一些AI、物联网企业还有科技大佬在各自的领域开启了新一轮的“跑马圈地”,从功能、使用场景以及核心技术等方面宣告自身大模型的特色和亮点。


拿实在智能举例,在ChatGPT点燃的熊熊大火里,实在智能得益于深耕AI领域的天然优势,凭借自研AGl大模型+超自动化技术,领跑人机协同时代。历经半年研发,在近期正式上线开始内测了自研垂直领域的大语言模型——实在TARS(塔斯)垂直大模型。在众多大模型产品中,实在TARS垂直大模型支持私有化部署和定制化训练,用户可完全自主掌控数据和模型,确保内部敏感数据和信息的安全性,并可根据业务需求进行定制化开发,为客户提供"有效、安全、可信任、可落地”的“大模型+”行业解决方案。


大模型爆发后面临的新技术通病


多位业内人士曾表示,短期来看,虽然AI大模型涌现出了超乎想象的通用能力,为经济社会发展带来新机遇,但现阶段,大模型仍受到很多因素的制约,也产生了传播虚假信息、侵害个人信息权益、数据安全和偏见歧视等问题。因为大模型已经为学术研究甚至是社会生活带来了深刻的变革,以ChatGPT为代表,大模型的能力已经显示了迈向通用人工智能的可能性。但同时,大模型同样面临着新技术的两面性,在挑战方面,面临着数据和模型方面的安全隐患。

今年5月初,美国谷歌、微软、OpenAI等AI巨头就召开会议,以AI技术爆发背后隐藏的风险为主题展开了激烈的讨论。国内AI大模型技术也正在发展之中,但是同时也需要先对安全问题进行相应的分析以便双管齐下,避免生成式大模型这把双刃剑带来的隐藏危害。

如何统筹生成式人工智能发展和安全引起各方关注。

中国AI大模型「监管办法」来了

昨日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布《生成式人工智能服务管理暂行办法》(以下称《办法》),旨在促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益,既是促进生成式人工智能健康发展的重要要求,也是防范生成式人工智能服务风险的现实需要。


总结来说,智能技术飞速发展的今天,AI大模型的发展离不开安全,对人工智能的规制也不应限制技术,而是防止其野蛮生长,在尊重客观规律的基础上,探寻合理的监管与合规之策。因此其安全问题将作为下一个技术点,值得众多研究者去攻克。


新技术通病:生成式AI能否逃得过双刃剑的命运?的评论 (共 条)

分享到微博请遵守国家法律