回顾刚刚过去的2022年,最令人惊艳的莫过于人工智能突飞猛进的发展。StableDiffusion和Midjourney掀起了AI绘画浪潮,ChatGPT在文本生成领域异军突起,2022年可谓生成式AI元年。放眼国内,AIGC(人工智能生成内容)产业方兴未艾,百度“文心一言”、阿里云“通义千问”、华为云“盘古”抢先领跑,腾讯、字节跳动、科大讯飞等企业大模型相继亮相。
AIGC快速发展的同时也带来了诸多问题。知识产权、名誉权和隐私权保护、网络安全均受到前所未有的挑战。企业对新兴科技一味求快难免走偏,为促进国内生成式人工智能健康发展和规范应用,4月11日,国家网信办起草《生成式人工智能服务管理办法(征求意见稿)》并向社会公开征求意见。
(资料图片)
细读征求意见稿全文,不难发现立法亮点。
1.举旗定向,谋篇布局。征求意见稿仅有21条,旨在宏观层面为生成式人工智能举旗定向、谋篇布局。国家支持企业发展生成式人工智能,但一切创新、应用、市场化都应以安全为前提。办法的制定始终遵循《网络安全法》《数据安全法》《个人信息保护法》等上位法,意味着立法不足、有待细化之处、执法依据等可从以上法律中寻找答案。
2.厘清责任,有的放矢。生成式人工智能服务管理模式与以往网络治理模式相同,即政府监管、企业履责、社会监督、网民自律。
生成式人工智能产品向公众提供服务前,企业须向国家网信部门申报安全评估,履行算法备案和变更、注销备案手续。
网信部门对企业进行常态化监督管理,有权作出相应的行政处罚。
企业向用户提供安全、稳健、持续的服务,引导用户合乎规范地生成内容,发现用户不当使用的,应当暂停或终止服务。
用户可对企业反馈,或向网信部门举报,通过实时处置和模型修正,保障AI在合法合规、公序良俗的轨道上运行和迭代。
3.画好红线,有序发展。征求意见稿明确,提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,这一要求是底线,是规矩,服务提供者必须贯穿从算法设计、训练数据集,到模型生成迭代、提供服务的全过程。第4条5项禁止款项与《网络安全法》《网络信息内容生态治理规定》基本相同,并强调要尊重知识产权,利用训练数据集“炼制”、优化模型过程中不得侵犯他人知识产权,技术领先者不得借助优势实施不正当竞争。
4.以人为本,信息保护。海量数据赋予AI以“生命”,AI如果处理不好信息安全,泄密与侵权将人人自危。征求意见稿将个人信息保护摆在重要位置,提供者在“炼制”AI模型涉及个人信息数据时,应当征得用户同意,取得授权,对个人信息的收集、存储、使用、加工遵照《个人信息保护法》之规定。在使用中用户输入的身份信息,提供者不得非法留存,禁止用户画像,不得向他人提供用户输入信息。
征求意见稿立足当下,着眼未来,前瞻性地规定提供者采取“防沉迷”措施,避免用户过度依赖AI技术,警示我们要防止人类的想象力、创造力、自主性像被三体中的智子那样封锁在信息茧房中。
5.真实至上,防范造假。生成式AI大大降低了制造假消息的技术难度和成本,文本、图片、声音、视频……人类以肉眼已经难以分辨信息的真伪,深度伪造一旦被别有居心者滥用,必然成为谣言制造、诈骗勒索和舆论操控的新式武器。
2月16日,一则“浙江省杭州市政府3月1号取消机动车依尾号限行”的“新闻”让不少杭州市民信以为真,警方调查,原来真相是一位业主用ChatGPT完成的新闻稿,属于谣言。
3月18日,特朗普在社交媒体平台上发文称,他预计自己将于3月21日被捕。3月21日当天,特朗普被捕、身陷囹圄的照片在网上疯传,而这些图片其实是有人使用Midjourney制作,短短两天,这条帖子浏览量就达到了近500万次。
互联网不是法外之地,AIGC信息造假决不允许。征求意见稿提出,不仅用于训练的数据要保证真实,进而生成的内容也要真实。提供者履行主体责任,如果发现生成违法违规情况,除采取内容过滤外,还应在3个月内通过优化训练等方式纠正错误,防止模型“学坏”,再次生成禁止内容。
征求意见稿要求,提供者应当对AI生成内容进行标识,提醒公众在信息洪流中慧眼识珠,保持清醒。
挑战与机遇并存,风险与发展同在。国产生成式人工智能服务只有接受监管才能步入正轨,行稳致远。