Grammarly enfrenta dilemas éticos tras desactivar imitación de autores

Publicado el mar 12, 2026.
Un lápiz roto junto a un papel enredado.

En un giro inesperado en el mundo de la inteligencia artificial (IA), Grammarly ha decidido desactivar una de sus funciones más controversiales: la Expert Review, diseñada para ofrecer retroalimentación inspirada en los estilos de escritura de autores célebres como Stephen King y el científico Carl Sagan. Esta decisión siguió a una fuerte reacción negativa por parte de la comunidad de escritores, quienes expresaron su preocupación por el uso no consensuado de sus nombres e identidades en un contexto comercial. Este incidente reabre el debate sobre los límites de la IA en el ámbito de la creación y el consentimiento.

La función Expert Review, lanzada por Superhuman (la empresa detrás de Grammarly), había sido creada para proporcionar a los usuarios recomendaciones de escritura basadas en los estilos de reconocidos expertos. Sin embargo, la implementación de esta herramienta fue criticada por ser poco representativa y por utilizar los nombres de escritores que nunca habían autorizado su uso. La demanda presentada por Julia Angwin, periodista del New York Times y principal demandante, argumenta que esta acción no solo es una violación de la privacidad, sino que además socava la autenticidad de la escritura ya que, en el caso de Angwin, los ejemplos dados por la IA no solo eran mediocres, sino que desvirtuaban su estilo.

En este contexto, el término "slopperganger", utilizado por Angwin, se refiere a la mala calidad del contenido generado, resaltando la preocupación de que la IA podría estar dañando más que ayudando a los escritores, obstruyendo el camino hacia una expresión genuina. Este caso no solo plantea preguntas sobre la ética del uso de la IA en la creación de contenido sino también sobre la necesidad de considerar el consentimiento en un área donde las capacidades tecnológicas avanzan rápidamente. En última instancia, mientras que las herramientas como Grammarly han prometido facilitar y mejorar la escritura, también es crucial que las empresas que las desarrollan actúen con responsabilidad, reconociendo los riesgos de usurpar la identidad creativa de individuos sin su permiso.

La negativa de Grammarly a aceptar la responsabilidad por las reacciones a sus herramientas sugiere un área inexplorada en el desarrollo de IA: la necesidad de un marco ético claro. A medida que las tecnologías avanzan, se vuelve fundamental considerar cómo las herramientas de IA pueden integrarse de manera que se respete la propiedad intelectual y la voz individual de los escritores. Si bien Grammarly ha decidido rediseñar la función, el caso plantea interrogantes persistentes sobre cómo evitar que situaciones como esta ocurran en el futuro. ¿Qué medidas pueden tomarse para asegurar que la tecnología beneficie a todos los involucrados?

ÉTICAINTELIGENCIA ARTIFICIALDERECHOS DE AUTORGRAMMARLY

Lee esto a continuación