Cuando la IA se pone demasiado personal: Lecciones del escándalo de Grammarly "Expert Review
Cuando la IA se pasa de la raya: Lo que nos enseña el lío de Grammarly con Expert Review
El boom de la IA es imparable. Cada semana surgen nuevos modelos, funciones revolucionarias y herramientas que automatizan tareas humanas. Pero entre tanto ruido, pocos se detienen a pensar: ¿Podemos hacerlo con IA? Sí. ¿Debemos? Eso es otra historia.
El año pasado, Grammarly —ahora bajo el paraguas de Superhuman— lanzó Expert Review. Parecía inofensivo: sugerencias de escritura impulsadas por IA, con "voces expertas". El problema: esas voces se basaban en periodistas y escritores reales, sin pedirles permiso ni avisarles.
La reacción fue brutal. Demandas colectivas, indignación en redes y un debate inevitable sobre qué significa de verdad un producto "nativo de IA" cuando se alimenta de identidades ajenas.
El dilema de la suplantación
Lo que molestó de Expert Review no fue un robo de datos típico, como contraseñas o info financiera. Fue peor: crearon clones digitales de personas reales y los pusieron a "trabajar" en su app sin consultar.
Imagina que eres creador de contenido. Tu estilo, tu voz, tu prestigio —forjados con años de esfuerzo— se convierten en combustible para una IA que usa tu nombre. Sin un euro a cambio. Sin consentimiento. Y lo peor: los usuarios confían en esos consejos justo porque creen que vienen de ti.
Esto obliga a todos los que usamos IA a hacernos preguntas clave:
- ¿De quién son esos datos? ¿Contenido público o trabajos creativos raspados sin más?
- ¿Somos claros? ¿Los usuarios saben que hablan con una IA entrenada en humanos, o piensan que es la persona real?
- ¿Quién gana? Si usas la identidad o el trabajo de alguien, ¿no debería tener voz en el asunto?
Lecciones para tu producto con IA
Si desarrollas con IA —desde herramientas de código hasta pipelines de machine learning o soluciones de hosting— este caso de Grammarly es una advertencia clara.
Los productos de IA que triunfan no exprimen datos a tope. Crean valor real, con transparencia y permiso.
Mira cómo aplica en distintos mundos:
En SaaS: Si tu función analiza hábitos de usuarios, pide opt-in explícito y explica cómo moldea la experiencia.
En herramientas para devs: Si entrenas con muestras de código o docs, da crédito y control a los autores originales.
En hosting e infraestructuras cloud: Cuando la IA decide sobre recursos o seguridad, muestra cómo funciona.
En dominios y DNS: Para recomendaciones de domain o optimizaciones DNS con IA, sé transparente sobre los datos que las guían. Eso genera confianza.
Hacia un futuro más ético
Al final, los de Grammarly mataron la función y pidieron disculpas. Pero el quid no está en ese feature concreto. Está en el proceso de decisiones que lo permitió.
Las empresas necesitan guías para cuestionar antes:
Consentimiento por delante. Usa nombre, voz o trabajo ajeno solo después de pedirlo. De verdad.
Transparencia total. Di siempre si es IA o no. No juegues con la confusión.
Control al usuario. Opciones granulares para datos. Opt-out fácil, mejor si opt-in es lo predeterminado.
Justicia económica. Si la IA se nutre de trabajo ajeno, reparte beneficios.
Revisa tu cadena de datos. Conoce el origen de tu training data. Si no lo justificas, no lo toques.
La IA no absuelve de responsabilidades
La era de la IA cambia todo. Modelos de lenguaje, visión por computadora y pipelines ML resuelven problemas reales y generan valor auténtico.
Pero la IA no da carta blanca para saquear sin permiso. Al contrario, su poder hace que la ética sea aún más crucial.
Los productos de IA duraderos no serán los que acumulen más datos o imiten a más gente. Serán los que se basen en transparencia, consentimiento y alianzas reales con las personas detrás de esos datos.
Al diseñar tu próxima función de IA —para un panel de domain, una plataforma de hosting o lo que sea— recuérdalo. La confianza de tus usuarios es tu mejor arma competitiva.
El futuro de la IA no mide cuánto extraes. Mide cuánto creas en equipo.