A raíz de la popularidad de ChatGPT, la discusión está más abierta que nunca: ¿a qué punto llega la fiabilidad de la inteligencia artificial a la hora de redactar artículos de carácter periodístico?
En otras palabras, ¿pueden los algoritmos realmente reemplazar a los profesionales de la información de carne y hueso?
La experimentación que protagonizó uno de los principales diarios online estadounidenses en el ámbito tecnológico nos lleva a dudar al menos de esta hipótesis. Los antecedentes de la noticia reportada por Engadget (portal de información muy autorizado en el ámbito digital), según la cual 41 de los 77 artículos redactados por la IA han sido objeto de correcciones por la presencia de errores graves y para evitar plagios, se puede derivar precisamente en la página de inicio de Cnet, en una intervención firmada por una de sus editoras en jefe, Connie Guglielmo.
De hecho, el artículo recuerda cómo Cnet Money lanzó la prueba en noviembre utilizando un motor de inteligencia artificial desarrollado internamente (no ChatGPT, por lo tanto) para ayudar a los editores a crear textos de educación financiera.
Los 77 cuentos creados con la ayuda de esta herramienta, volvemos a leer, representan alrededor del 1% del contenido total publicado en el sitio en el mismo período y surgen del trabajo combinado entre la IA (que produjo los borradores) y los editores (que han ampliado, añadido y editado los borradores antes de publicarlos).
Y donde la máquina cometió errores, plausibles como pueden pasar con los humanos, el equipo editorial de Cnet Money intervino con una revisión completa del texto.
Si en Cnet dicen estar convencidos de que las nuevas herramientas tecnológicas están acelerando el cambio en el sector editorial, la objeción que plantea Engadget es sustancialmente sobre el alcance de los errores encontrados, que han afectado durante más de la mitad de los artículos escritos por inteligencia artificial.
Es difícil establecer el verdadero alcance de una «corrección sustancial», que según Cnet ha afectado a algunos artículos, desde el alcance de los «problemas menores» que han obligado a los editores a corregir nombres de empresas incompletos, lenguaje considerado vago o oraciones. que no son originales y tomados (por supuesto sin permiso) de otras fuentes.
El hecho es, como vuelve a escribir Engadget, que Futurism, la publicación que primero habló sobre la experimentación, afirmó tener amplia evidencia de que los contenidos generados por el motor de inteligencia artificial de Cnet mostraban «profundas similitudes» en estructura y formulación con artículos publicados anteriormente en otros periódicos. En resumen, copió. Y bueno también.
Fabio Ciabattini