[ad_1]
En el año transcurrido desde que OpenAI presentó ChatGPT al mundo, casi 600 organizaciones de medios han bloqueado la tecnología para que ésta no elimine su contenido.
Otros dos chatbots de IA, Bard de Google AI y CCBot de Common Crawl, también están bloqueados por algunas o la mayoría de esas mismas organizaciones de noticias.
La lista crece cada día, según Ben Welsh, editor de aplicaciones de noticias de Reuters, quien compiló una encuesta de organizaciones de noticias para su blog de medios.
“Lo que estamos viendo aquí es que los editores de noticias, al menos la mitad de ellos en mi encuesta, quieren frenar un poco esto y no simplemente dejarse incluir sin algún tipo de conversación o negociación con la compañía de inteligencia artificial OpenAI”, dijo Welsh.
OpenAI, el creador de ChatGPT, ofreció a 1.153 organizaciones de noticias la opción de bloquear su chatbot en agosto de 2023. Hasta el miércoles, casi la mitad había aceptado esa oferta.
Si bien la mayoría son organizaciones estadounidenses, incluidos The New York Times y CNN, la lista también incluye grupos de medios internacionales, incluidos ABC News de Australia, The Times of India y The South African.
La encuesta de Welsh no profundizó en las razones para bloquear ChatGPT, pero dijo que los medios comerciales tienden a estar entre los grupos que bloquearon ChatGPT, mientras que las organizaciones sin fines de lucro tienen más probabilidades de compartir contenido.
Los intentos de la Voz de América de contactar a ChatGPT a través de LinkedIn, correo electrónico y en sus oficinas en San Francisco no tuvieron éxito.
Visto como una amenaza
Muchos analistas de medios y grupos de libertad de prensa ven la IA como una amenaza para los editores y emisoras, así como una amenaza para el periodismo ético.
Entre las principales preocupaciones está el uso de la inteligencia artificial para crear narrativas e imágenes falsas y amplificar la información errónea y la desinformación.
«Es claramente posible que algunos grupos u organizaciones utilicen y afinen modelos para crear desinformación adaptada a sus proyectos o a sus propósitos», afirmó Vincent Berthier, que dirige el departamento de tecnología de Reporteros sin Fronteras (RSF). «Pero ahora mismo, el mayor riesgo de desinformación proviene de la IA generativa a partir de imágenes y falsificaciones profundas», explicó.
RSF formó una comisión formada por 32 expertos en periodismo e inteligencia artificial, encabezada por el premio Nobel y experta en desinformación Maria Ressa, para regular cómo los medios utilizan la tecnología.
La resultante Carta de París sobre IA y Periodismo, publicada en noviembre, establece parámetros para el uso de la IA por parte de las organizaciones de noticias y deja claro que los periodistas deben asumir un papel de liderazgo
Berthier, de RSF, cree que muchas de las organizaciones que optan por no participar están enviando un mensaje claro a los desarrolladores de IA.
«Lo que dicen las empresas de medios es que la IA no se construirá sin nosotros y esa es exactamente la posición de RSF sobre este tema», afirmó Berthier. «Es el espíritu de la carta que publicamos este mes que dice que los medios y el periodismo deben ser parte de la gobernanza de la IA».
La libertad de los medios ya está en riesgo debido a las grandes tecnologías y los algoritmos de las redes sociales, señló Berthier.
«Es por eso que luchamos todos los días para proteger la libertad de prensa y simplemente asegurarnos de que los periodistas aún puedan hacer su trabajo para brindar la información más precisa al público», dijo.
The Associated Press se asoció con OpenAI en un acuerdo para compartir información y contenido de noticias en julio.
Pamela Samuelson, becaria MacArthur, profesora de derecho de la Universidad de California-Berkeley y experta en tecnología de la información, dijo que el convenio podría ser solo el comienzo de muchos acuerdos de licencia y asociaciones entre la IA y el periodismo.
Pero Samuelson también predijo que las empresas trabajarían para desarrollar su propia IA.
“Entonces The New York Times podría estar haciéndolo, CNN podría estar haciéndolo, pero no lo sabemos”, dijo Samuelson. «Anunciarán su propio material generativo o simplemente lo mantendrán en casa».
.
Preocupaciones éticas
A medida que se desarrolla el debate sobre el uso de la IA en el periodismo, muchas organizaciones de noticias y periodistas citan preocupaciones y reservas éticas sobre su uso.
Otros citan factores económicos, como el uso de sus materiales protegidos por derechos de autor y propiedad intelectual únicos sin pago ni procedencia.
Sin embargo, dijo Samuelson, “las predicciones de fatalidad, fatalidad, fatalidad probablemente sean exageradas”.
“Las predicciones de que todo va a ser perfecto probablemente también estén equivocadas”, añadió. «Tendremos que encontrar algún nuevo equilibrio».
La IA generativa puede escribir códigos de computadora, crear arte, producir investigaciones e incluso escribir artículos de noticias. Pero los fabricantes permitirán ampliamente en sus descargas de responsabilidad que existan problemas con su confiabilidad y precisión.
También existe un temor creciente entre los investigadores de que se esté extendiendo la dependencia de la IA generativa para producir y acceder a noticias e información y que con demasiada frecuencia la información que se proporciona no sea confiable o precisa.
«Hay una cosa que el periodismo coloca en el primer lugar de la lista y es la precisión y esa es una debilidad de estas herramientas», dijo Welsh. «Si bien son increíblemente buenas siendo creativas y generando todo tipo de resultados interesantes, una cosa con la que luchan es con la información correcta».
Algunos analistas y observadores de la IA dicen que la creciente lista de organizaciones de noticias que bloquean los robots de IA podría afectar aún más esa calidad.
[Con reporte de Robin Guess, periodista del servicio en inglés de la Voz de América]
Source link