cargando
el Los New York Times Establecer todo contra a OpenAI y Microsoft, acusando a las dos empresas de utilizar sus artículos, protegidos por derechos de autor, para desarrollar sus propios sistemas de inteligencia artificial. La llamada IA generativa, como ChatGPT desarrollado por OpenAI, utiliza grandes cantidades de texto e imágenes escritas para desarrollar sistemas capaces de producir nuevos textos e imágenes. de acuerdo a Los New York TimesSe dice que , uno de los periódicos más leídos del mundo, tiene sistemas de inteligencia artificial entrenados en sus textos para robar visitantes de su sitio.
La demanda no especifica el monto de compensación que el periódico busca, pero dice que las compañías serán responsables de «miles de millones de dólares» en daños y pide la destrucción del software basado en modelos entrenados en material protegido por derechos de autor. Según una denuncia Los New York TimesEn algunos casos, ChatGPT puede producir transcripciones palabra por palabra casi idénticas de artículos publicados en su sitio y solo se puede acceder a ellos si se suscribe al periódico pagando una tarifa.
Esta no es la primera demanda presentada contra OpenAI: en septiembre varios autores de ficción también presentaron una demanda, incluidos George R.R. Martin, John Grisham y Jonathan Franzen, por razones similares. Los New York TimesEn noviembre, muchos ensayistas habían hecho lo mismo. Según lo que afirmó Los New York Times En sí misma, la denuncia surge tras negociaciones iniciadas en abril entre el periódico y Microsoft (que tiene vínculos muy estrechos con OpenAI), que no dieron resultados.
– Lea también: Para que la IA funcione, la inteligencia humana necesita realizar trabajos muy aburridos
Por el contrario, el editor alemán Axel Springerque publica entre otros imagenEl periódico de mayor circulación en Alemania, e PolíticoY la agencia de noticias americana Agencia de noticias Ha llegado a acuerdos con OpenAI. La AP otorgó acceso a parte de su archivo de texto a ChatGPT. En cambio, el acuerdo con Axel Springer estipula que ChatGPT puede proporcionar a los usuarios extractos de noticias publicadas en los periódicos del grupo. En ambos casos no se reveló el alcance económico de los contratos.
Una de las mayores preocupaciones sobre los programas de IA generativa son las llamadas «alucinaciones», situaciones en las que el programa esencialmente inserta información falsa en su respuesta al usuario, a veces atribuyéndola a una fuente como un periódico. De hecho, el programa funciona gracias a un modelo estadístico que intenta adivinar qué palabras tienen sentido utilizar en un contexto determinado: esto genera en ocasiones respuestas correctas según reglas lingüísticas, pero sin ningún compromiso con la realidad. el Los New York Times Afirma que esto podría representar un daño a su reputación.
«Alcohol ninja. Orgulloso especialista en tocino. Organizador. Creador aficionado. Solucionador de problemas amigable con los hipster. Gurú de la comida. Alborotador. Experto en Twitter».