电台主持人 David Greene 表示 Google 的 NotebookLM 工具窃取了他的声音
电台主持人 David Greene 表示 Google 的 NotebookLM 工具窃取了他的声音 这份对广播的全面分析提供了详细的检查——Mewayz Business OS。
Mewayz Team
Editorial Team
现在我有足够的背景来写这篇博文了。完整的 HTML 内容如下:
电台主持人 David Greene 称 Google 的 NotebookLM 工具窃取了他的声音
资深 NPR 主持人大卫·格林 (David Greene) 公开指责谷歌在未经同意的情况下克隆了他的声音,用于其病毒式传播的 NotebookLM 音频概述功能。这项指控让每个内容创作者和企业主都应该问一个问题:在生成人工智能时代,谁真正拥有你的声音、你的品牌和你的身份?
David Greene 和 Google NotebookLM 之间究竟发生了什么?
大卫·格林 (David Greene) 多年来担任 NPR 早间版节目的联合主持人,该节目是美国最受欢迎的广播节目之一。他的声音立即被数百万听众认出。当 Google 在 2024 年底推出 NotebookLM 的音频概述功能时,该工具因其能够将上传的文档转换为两个人工智能生成的主机之间令人惊讶的自然播客式对话而迅速走红。
格林和众多听众注意到了一些令人不安的事情:其中一个人工智能生成的声音与格林自己的声音节奏、语气和说话风格惊人地相似。格林公开表示,谷歌从未联系他或他的代表寻求许可、许可或补偿。谷歌否认该声音是模仿任何特定个人的,并坚称其声音是完全合成的,而不是故意复制真人的。
无论意图如何,这一事件都体现了媒体、娱乐和商业领域一直存在的恐惧:在大量公共音频数据集上训练的人工智能系统可以准确地复制某人的肖像,从而造成真正的伤害,无论一家公司是否承认故意克隆。
为什么企业主应该关心人工智能语音克隆?
这不仅仅是名人的问题。如果您经营一家企业、制作内容、主持播客或录制培训视频,您的声音和品牌标识就是商业资产。格林的案例说明了这些资产可以在您不知情的情况下以多么快的速度被复制、重新分配或贬值。
公开权面临风险:美国许多州保护个人免遭未经授权的商业使用,包括他们的肖像,包括他们的声音。人工智能生成的相似声音可能会违反这些保护措施。
训练数据不透明:大多数人工智能公司并没有准确披露哪些录音用于训练语音合成模型,导致创作者对自己的作品是否被消耗一无所知。
目前还没有联邦人工智能语音法:虽然一些州已经出台或通过了针对人工智能深度假货和语音复制品的立法,但还没有全面的联邦标准,造成了各种保护措施的拼凑。
品牌信任侵蚀:如果客户或受众听到听起来像你的人工智能声音,推销你从未认可的产品或想法,由此产生的混乱可能会损害来之不易的品牌信誉。
娱乐业罢工的先例:2023 年 SAG-AFTRA 和 WGA 罢工将人工智能复制人类表演置于劳资谈判的中心,确立了声音和肖像保护是主流商业问题,而不是小众法律理论。
NotebookLM 的音频概述实际上是如何工作的?
谷歌的 NotebookLM 允许用户上传 PDF、文章和笔记等文档,然后生成对话音频摘要,由两位人工智能主持人讨论这些材料。该技术依赖于用于脚本生成的大型语言模型和用于语音生成的高级文本到语音合成。谷歌表示,这些声音是根据合成数据构建的,而不是从可识别个人中克隆的。
然而,现代文本转语音模型是在大量录制的语音语料库上进行训练的。即使最终输出的声音不是一对一的克隆,数千小时真实人类语音的总影响也不可避免地会影响结果。批评者认为这使得“合成”和“克隆”之间的区别更加明显
Ready to Simplify Your Operations?
Whether you need CRM, invoicing, HR, or all 207 modules — Mewayz has you covered. 138K+ businesses already made the switch.
Get Started Free →Related Posts
获取更多类似的文章
每周商业提示和产品更新。永远免费。
您已订阅!