La creciente preocupación por el impacto de la inteligencia artificial en la industria del periodismo ha tomado un nuevo giro. Recientemente, un producto de una empresa de IA ha utilizado el nombre de un periodista sin su consentimiento, lo que ha generado un debate sobre la ética y la autenticidad en la creación de contenido. Este hecho se reveló tras la publicación de un artículo en Verge por el excolaborador de PC Gamer, Stevie Bonifield.
La herramienta de Grammarly, ahora conocida como Superhuman, había lanzado hace siete meses una función que revisa textos imitando la voz de supuestos "expertos", incluyendo a escritores reconocidos y a otros profesionales. Esta situación ha provocado indignación, ya que la empresa no notificó a los expertos que su trabajo estaba siendo utilizado de esta manera. Además, el análisis de los textos generados por la IA ha sido calificado de deficiente y sin valor real.
Con la creciente presencia de la inteligencia artificial en la vida cotidiana, la conversación en espacios públicos, como cafeterías en San Francisco, se centra cada vez más en este tema. La comunidad tecnológica está profundamente dividida sobre las implicaciones de estas herramientas en el futuro del trabajo y la creatividad.