近日,中国新闻网报道,抖音平台针对AI生成内容加强了管理措施,明确了AI创作“禁区”,严厉打击利用AI技术伪造身份、传播虚假信息以及骗取用户互动的行为,着重清理包括假外国人、假精英以及虚构形象骗取关注互动等三类问题内容。
方正证券分析认为,AIGC(AI Generated Content)技术的精确性、合法性、积极价值导向是其健康发展的基石,当前业界正积极推动“AI+安全”的融合发展,致力于构建能够保障内容安全的大模型,并预期此类安全大模型将在商业化层面展现出巨大潜力。
展望未来,东吴证券预测,至2030年,我国人工智能核心产业规模有望突破1万亿元人民币大关。鉴于信息化建设中安全保障的必要性,安全投入通常占据整体投入的5%-10%,而在AI大模型领域,由于其内在特性,AI安全防护的重要性更为凸显,涉及从数据标注、模型训练、内容生成到应用开发全链条的安全保障,预估安全投入强度不会低于传统信息安全领域的投入水平。据此估算,在人工智能产业链中,假设AI监管市场的占比同样按照5%-10%计算,则预计到2030年,我国AI大模型监管市场的规模有望达到500亿至1000亿元人民币。
同时,东吴证券指出,行业内已有多家公司涉足AI检测产品研发与应用,如人民网、新华网、国投智能等企业均在AI内容安全监管方面有所布局。