AI 太懂你了?Grammarly“专家审阅”风波教训
AI 太“贴心”了?Grammarly 专家评论风波的教训
AI 热潮来得太猛了。新模型、新功能层出不穷,到处都在说怎么用 AI 取代人工。可问题是:我们能做,不等于就该做。
去年,Grammarly(现在归 Superhuman 管)推了个 Expert Review 功能。听起来挺好玩:AI 模拟“专家”给写作提建议。但问题大了——这些专家人设,直接抄了真人记者和作家的风格,还没问过人家一声。
结果呢?炸锅了。集体诉讼接踵而来。那些记者发现自己的名字、风格被偷去训练 AI,一点通知都没有。这事儿逼着大家直面真相:打着“AI 原生产品”旗号,到底在玩什么把戏?
冒充人的麻烦
Expert Review 不是传统隐私泄露。Grammarly 没偷密码,没挖财务数据。他们干了更狠的:捏造真人数字分身,让它在产品里“上班”,连声招呼都不打。
想想创作者的感受。你辛辛苦苦练就的文风、名声,突然成了 AI 的养分。用户还以为那是你的真知灼见,信得不得了。你呢?没钱拿,没同意,还得背锅。
这事儿戳中 AI 开发者的痛点:
- 数据从哪儿来? 公共内容行吗?还是偷偷抓私人作品?
- 够透明吗? 用户知道这是 AI 假装真人,还是以为真人在说话?
- 谁赚钱? 用上人家的身份,得让他们有发言权吧?
对你的 AI 产品的提醒
不管你是搞 AI 辅助开发、机器学习,还是 AI 托管方案,这个风波都是前车之鉴。
牛逼的 AI 产品,不是狠挖数据,而是老实创造价值,还得透明、得同意。
举例看:
SaaS 产品: 靠用户习惯做推荐?必须明确 opt-in,告诉大家数据怎么用。
开发者工具: 用代码样例训练 AI?原作者得署名,得掌控。
云托管和基础设施: AI 管资源分配或安全?用户得看清决策过程。
域名和 DNS 服务: AI 推域名或优化 DNS?说清楚数据来源,信任就来了。
怎么走下去
Grammarly 最后砍了功能,道了歉。但关键不是这个产品,而是决策时没想清楚。
公司得早早问硬问题,建立框架:
先问同意。 用人名、声音、作品?直接问,别偷摸。
默认透明。 AI 就是 AI,别玩暧昧,用户一眼看清。
给用户控制。 数据开关随手调,opt-out 超简单,最好默认 opt-in。
经济公平。 靠别人作品赚钱?分红得公道。
查供应链。 训练数据来路不明?别碰。
AI 不是免责金牌
AI 真能改变世界。语言模型、计算机视觉、自定义 ML,都在解决问题、创价值。
但 AI 不是掠夺许可证。它的力量越大,伦理问题越紧急。
经得起考验的 AI 产品,不会是数据最多的那个,而是透明、同意、和人合作最铁的那个。
下次设计 AI 功能,不管是域名管理面板、云托管平台,还是啥,都记着这点。用户信任,才是王道。
AI 未来,不是你挖多少,而是大家一起创多少。