据报道,近日,在第二届语言智能与社会发展论坛上,业界专家们聚焦“智能写作的社会影响及其伦理、法律问题”,发表了《推进智能写作健康发展宣言》。专家们呼吁,智能写作在发展中应当以人为本,永不寻求替代或削弱人类的语言使用能力,始终保持其工具性定位;并应不断提高其自身透明性、可解释性、可预测性,使系统可追溯、可核查、可问责;智能写作要尊重人类语言作品的知识产权,审慎处置“原创”语言作品产权。
当前,智能写作在多个领域已得到大量应用,发挥着不可小觑的作用。内容资讯、金融财经、数字营销和行政办公成了对智能写作需求最强、黏性最高的四个市场。一些媒体在报道中投入了各自研发的智能写作机器人,软件企业纷纷推出了辅助撰写通知通告、总结汇报等应用文的智能模块,部分厂家的写作机器人更是在广告文案和检索优化等创意写作方面有所涉足。
然而,凡事皆有利弊。智能写作技术若不加限制地应用,在工商业、公共管理和文化传承等领域都将产生侵权问题及伦理焦虑。对个人而言,它可能会导致信息过载、严重干扰个人生活,以及无穷尽的屏幕弹窗和手机短信甚至骚扰电话,其内容乃至声音,很多都是机器自动生成的。在中观上,智能写作的大规模应用,给文秘、新闻、外语等领域的行业生态和人才培养带来挑战。尤其是伴随技术应用而来的浮夸宣传,恐吓教育者和学习者,误导产业规划和教育决策。在电商行业中,滥用写作机器人“刷商品评论”“搞黑公关”的现象已露端倪。更严重的问题是,智能写作中的社交机器人泛滥会扰乱社会秩序,恶化网络生态。有西方传播学者调查发现,目前互联网中15%以上的信息是由机器生成并传播的。
语言不规范、语言暴力、语言偏见、传播虚假信息等现象都不是智能写作所独有的。但正如从步枪到机枪,火力密度的量变引发了战争形态和军事组织的质变。智能写作带来的生产门槛降低、传播成本消失,有放大人类语言生活中的许多恶疾的可能,并有可能引发社会生态的变化。更令人担心的是,目前并没有任何强制性的公约和法律,像限制真实大规模杀伤性武器一样,去限制它们的扩散和使用。
面对这样的境况,如何理性科学估量智能写作的社会作用,预测其未来发展就显得尤为重要。给智能技术发展这匹快马套上科技伦理的笼头是必要之举,且刻不容缓。今年,中央全面深化改革委员会通过了国家科技伦理委员会组建方案,科技伦理委员会也将设立人工智能分会。这将有助于厘清人工智能的伦理边界,促进人工智能安全可控发展。
影响全社会的问题,也需要全社会的参与。人工智能学界、语言学界、伦理学界、新闻传播界、司法界及社会有关界别及人士,应当加入其中,构筑“产业、科研、政府”的旋转门,保证语言智能在符合人类伦理的框架内发展,划定语言智能技术应用的道德边界和法律边界。
(作者系北京语言大学汉语国际教育研究院助理研究员)