ChatGPT遭多国“围剿”,国内新玩家为何仍争相入局?
新兴人工智能工具的使用在过去几个月大范围风靡,典型如ChatGPT,短短几个月便火遍全球,不过由它引发的关于生成式AI的讨论和争议也是空前的。
由于担忧生成式AI存在的数据安全风险,世界多国开始对ChatGPT等人工智能工具进行审查,有的甚至直接“封杀”。近日,我国的监管机构也对生成式AI技术进行一系列的表态。4月11日,国家网信办宣布拟出台关于生成式人工智能管理办法;4月10日,中国支付清算协会网站发布“关于支付行业从业人员谨慎使用ChatGPT等工具的倡议”。
在生成式AI“狂奔”之际,在国内AI大模型创业风潮兴起之时,一场关于AI合规及内容甄别的考验也提上了日程……
生成式AI引发多国担忧
近期已有多国监管部门表示密切关注ChatGPT的引发的数据安全问题。
意大利于当地时间3月31日打响“封杀”ChatGPT的“第一枪”。意大利个人数据保护局宣布,禁止使用聊天机器人ChatGPT,限制开发这一平台的Open AI公司处理意大利用户信息,并启动立案调查。随后,法国和爱尔兰的隐私监管机构表示已经与意大利取得联系,以了解更多有关该禁令的依据。
图片来源:视觉中国
加拿大隐私专员办公室(Office of the Privacy Commissioner of Canada,OPC)于当地时间4月4日宣布开始调查ChatGPT背后的公司OpenAI,目的是回应一项针对该公司“未经同意收集、使用和披露个人信息”的投诉。根据公告,由于相关调查仍在进行中,所以目前无法公开更多信息。
4月3日,德国联邦数据保护专员发言人称,出于数据保护方面的考虑,可能会暂时禁止在德国使用ChatGPT。
此外,作为潜在监管的第一步,美国商务部已经于美东时间4月11日(周二)正式公开征求意见,就其所谓的问责措施发表意见,包括有潜在风险的新人工智能模型在发布前是否应该通过认证程序。
在各地担忧生成式AI风险之际,本周,我国监管机构也对生成式AI技术进行了一系列表态。
据“网信中国”微信公众号4月11日消息,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称“征求意见稿”)。
图片来源:国家网信办
征求意见稿对生成式人工智能服务提供者及其产品提出了多项规制,包括:
利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续;利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息;同时,服务提供者的数据保护责任也得到了明确,“生成式人工智能服务提供者应对用户的输入信息和使用记录承担保护义务”。
此前一天(4月10日),中国支付清算协会发布《关于支付行业从业人员谨慎使用ChatGPT等工具的倡议》。
倡议提到,近期,ChatGPT等工具引起各方广泛关注,已有部分企业员工使用ChatGPT等工具开展工作。但是,此类智能化工具已暴露出跨境数据泄露等风险。
潜在数据安全问题何解?
今年以来,以ChatGPT为代表的生成式AI应用成为全球热点,科技企业围绕大模型正在展开竞赛,但生成式AI所涉及的数据安全问题开始成为各国政府或隐私监管机构所关注的重点问题。
ChatGPT母公司OpenAI的首席执行官山姆·阿尔特曼 图片来源:视觉中国
美国福布斯网站和英国《手机POS机卫报》等媒体曾指出,ChatGPT能够收集不同的数据,可能触发隐私问题。欧盟执法机构欧洲刑警组织也曾提出警告称,ChatGPT可能被滥用于网络钓鱼、虚假信息和网络犯罪等方面。
ChatGPT数据泄露、欧洲各国对ChatGPT的监管加强、三星数据泄露等事件,进一步推动了全球对AI安全的建设。这让数以千计的AI专家和知名人士呼吁,在健全的防护系统到位之前,业界应放缓该技术的发展。
3月,马斯克等数百名人工智能专家、科技企业家和科学家联名签署一封公开信,呼吁暂停训练与GPT-4更强的AI系统,暂停期至少6个月。GPT-4是OpenAI大约在一个月前发布的聊天机器人版本。这些科技大佬警告称,OpenAI与Alphabet旗下谷歌等拉卡拉代理竞争对手之间正在展开AI“军备竞赛”,但并未对潜在风险进行充分的管理和规划。
图片来源:每日经济新闻
对于隐私安全的质疑,OpenAI表示,收集的数据将不会用以营利,只会用于训练模型。不过,公司也将从训练数据集中删除个人信息,并逐步调整模型以拒绝私人个体的个人信息请求,以减小ChatGPT回复中出现个人信息的可能性。4月7日,OpenAI对隐私协议进行了更新。
此外,OpenAI最近还在一篇博客文章中表示,“我们认为,强大的人工智能系统应该接受严格的安全评估。需要监管来确保这些做法得到采用,我们积极与各国政府接触,探讨可能采取的最佳监管形式。”
在监管声四起的当下,一些人工智能企业也主动欢迎并寻求制定新的监管规定。据Axios,美东时间本周三,OpenAI、微软、谷歌、苹果、英伟达、Stability AI、Hugging Face、Anthropic等公司将开会讨论制定AI技术开发使用标准,讨论如何以最负责任的态度继续开发AI。
天风证券研报指出,展望未来,随着大语言模型与垂直行业相结合,当训练数据涉及行业数据时,在保证数据来源的可靠性、安全性之外,防止数据泄露更为关键。AI监管首先应从源头开始,从数据的托管开始。大模型数据安全的监管应当从源头开始加强,比如在国家统一规范下对数据进行托管,由国家云提供模型训练数据平台,保证数据的完整性、保密性,再在此基础上部署数据安全产品。
国内新玩家密集入局
2022年12月,OpenAI的大型语言生成模型ChatGPT刷爆网络,将人机对话推向新的高度。当前全球各大科技企业都在积极拥抱生成式AI,不断推出相关的技术、平台和应用。
近期,国内新玩家也密集入局。
阿里巴巴“通义千问”大模型4月11日亮相云峰会,阿里巴巴集团董事会主席兼CEO、阿里云智能集团CEO张勇表示,未来阿里巴巴所有产品都将接入“通义千问”大模型,进行全面改造。据介绍,阿里云已经累积了从飞天云操作系统、芯片到智算平台的“AI 云计算”的全栈技术实力,阿里云将把这些AI基础设施和大模型能力向所有企业开放,共同推动AI产业的发展。
4月10日下午,商汤科技发布自研大模型体系“日日新SenseNova”,包含自然语言处理、内容生成、自动化数据标注、自定义模型训练等多种大模型及能力。其中自然语言大模型命名为“商量SenseChat”,商汤科技董事长兼CEO徐立在现场展示了其多轮对话和超长文本的理解能力,以及在编程、健康咨询等领域应用。
当天下午,A股上市公司昆仑万维发布公告称,公司和奇点智源合作自研的“天工”3.5发布在即,将于4月17日启动邀请测试。昆仑万维自称这将是“中国第一个真正实现智能涌现的国产大语言模型”,并且已经非常接近OpenAI ChatGPT的智能水平。
搜狗创始人王小川正式在4月10日下午对外宣布开启人工智能大模型领域创业。王小川与前搜狗COO茹立云联合成立人工智能公司百川智能,旨在打造中国版的OpenAI,研发并提供通用 AI 服务、基础大模型及颠覆性上层应用。“追上ChatGPT水平,我觉得今年内可能就能够实现,但对于GPT-4或者GPT-5,我认为可能需要3年左右的时间,应该不会低于两年。”王小川表示。
此外,国内厂商包括腾讯、百度、华为、360等均在加码布局大模型产品。
艾媒咨询监测数据显示,2014年-2023年2月全球AIGC及相关产业投融资规模约1938亿美元,成为资本布局的热门赛道。分析师认为,ChatGPT等AIGC类话题在全球产引发大量关注,对于产业界重视AI整体发展是一个重大利好,AIGC领域未来将保持长期向上发展趋势。然而,人工智能属于典型的长周期、高投入行业,目前AIGC在各行业应用落地仍处于早期探索阶段,其发展速率及效果需要理性对待。
风口财经综合整理,素材来源:每日经济新闻、21世纪经济报道、证券日报、证券时报、同花顺等
(本文观点仅供参考,不构成投资建议,投资有风险,入市需谨慎!)
拉卡拉收款码 领取POS机
如若转载,请注明出处:https://www.hhhrkala.com/15473.html