当前位置: 华文世界 > 科技

AI 生成的内容:一场即将到来的信任危机?

2024-02-19科技

生成式人工智能(GenAI)正以令人瞩目的速度快速发展。与其基于文本的前身类似,图像和视频合成工具承诺将为创意与内容生产流程带来革命性的简化。但是,随着每一项新技术的诞生,我们也面临着更大的责任——负责任地运用这些技术。

目前,生成式 AI 在模仿创造性内容方面做得很好,但在事实准确性的表达上却常常遇到挑战。这些算法擅长预测,能够生成统计上看似合理的输出,但却缺乏可靠真实性的依据。这种生成「貌似真实」的能力,在依赖可靠性原则的行业中,如新闻业,构成了不容忽视的风险。

大语言模型(LLMs)就是这一问题的一个例证。尽管它们能够流畅地输出连贯的文本,但可能会捏造事实、错误地归因信息,并创造出看似权威的内容,却不考虑信息来源的准确性。在 AI 生成的视觉内容中,这种问题尤为突出,因为确定内容的源头和背景变得更加困难。

这不意味着生成式 AI 没有使用价值。在明确了其使用限制的情况下,AI 在简化研究流程、构思初稿和提供基础框架方面的潜力是显而易见的。然而,这些都仅是辅助工具,无法取代人类的严谨判断。编辑的角色是无可替代的。未经严格的事实核查和审视便发布由 AI 生成的内容,等同于放弃了我们作为信息传递者的根本责任。

因此,当务之急不仅是推动生成式 AI 的发展,更重要的是并行开发技术和伦理系统,以确保其信任度。 建立标记 AI 生成内容、强化来源验证和创建透明的责任追溯机制变得至关重要,而非可有可无

在这些机制普及成为常态之前,我们正处于一个充满挑战的阶段。由生成式 AI 引发的行业变革是不可避免的。对于记者、内容创作者或消费者而言,面对这一不断演变的景观时,认识到其中的风险至关重要。我们在认识到生成式 AI 工具潜力的同时,也必须坚持要求它们提供的信息必须有可验证的凭证。在没有适当保护措施的情况下,通过对真实承诺赢得的信任将轻易丧失。