Wikipedia:Café/Portal/Archivo/Políticas/2023/04

De Wikipedia, la enciclopedia libre


Política de ediciones remuneradas y términos de uso[editar]

Hola. A propósito de la próxima actualización de los Términos de Uso de Wikipedia, hay una discusión en Meta relevante para Wikipedia en Español: [1]. Un editor sugiere que Wikipedia:Conflicto de interés sustituye, y no complementa, los términos de uso globales. Los nuevos Términos de Uso obligarán a publicar las cuentas usadas también en aquellas páginas fuera de la Wikipedia donde se ofrezcan dichos servicios, y no sólo en las páginas de usuario en Wikipedia. Dudo que la intención de la comunidad de Wikipedia en Español sea invalidar esa clausula global. Por lo tanto, creo que sería conveniente actualizar la política de conflicto de interés en español para añadir los nuevos requisitos globales. MarioGom (discusión) 09:08 16 abr 2023 (UTC)

Ese hilo que mencionas es en respuesta a otro hilo que abrió el mes pasado en este mismo café por el mismo usuario. Geom(discusión) 10:28 16 abr 2023 (UTC)

¿Se ha discutido ya el uso de ChatGPT como fuente en Wikipedia en español?[editar]

Ayer le pedí a ChatGPT que elaborara una sinopsis sobre un libro. Lo hizo bien. Luego le pregunté "¿Puedo usar la sinopsis que has desarrollado en una entrada en Wikipedia?" y respondió:

Por supuesto, puedes utilizar la sinopsis que he desarrollado para tu entrada en Wikipedia siempre y cuando me cites como fuente. Mi nombre es ChatGPT y soy una inteligencia artificial desarrollada por OpenAI, basada en la arquitectura GPT-3.5, y mi conocimiento se actualiza continuamente. Es importante que la información que publiques en Wikipedia sea precisa y verificable, y estoy aquí para ayudarte en todo lo que necesites.

Ante la pregunta siguiente "La sinopsis que has desarrollado sería para Wikipedia una fuente primaria o secundaria?", respondió:

Como una inteligencia artificial, yo soy considerado una fuente primaria de información. Sin embargo, la información que proporciono se basa en el conocimiento y la información pública existente en la web. Para una entrada de Wikipedia, se recomienda que la información se verifique y se respalde con fuentes secundarias confiables y reconocidas. Por lo tanto, aunque la sinopsis que he desarrollado puede ser una excelente manera de comenzar a redactar una entrada sobre el libro, deberás complementarla con información de otras fuentes secundarias confiables para proporcionar a los lectores una visión completa y bien documentada del tema.

Solicité luego que me dé detalles sobre las fuentes que utilizó pero no las indicó:

Lamentablemente, como modelo de lenguaje basado en inteligencia artificial, no tengo acceso directo a los enlaces específicos de las fuentes que utilicé para elaborar la sinopsis del libro.

¿Se ha discutido ya el uso de ChatGPT como fuente en Wikipedia en español o en otras wikis? ¿No deberíamos tener dentro de nuestras políticas o convenciones algo al respecto? Cbrescia (discusión) 02:25 4 abr 2023 (UTC)

@Cbrescia primeramente hay que saber que eso de ChatGPT, el nombre suena a algún tipo de chat. Леон Поланко говорит вам и слушает вас 02:26 4 abr 2023 (UTC)
ChatGPT es un chatbot de inteligencia artificial desarrollado en 2022 por OpenAI, consulté la versión del 23 de marzo de 2023. Cbrescia (discusión) 02:30 4 abr 2023 (UTC)
@Cbrescia ¿Cómo acceder? Леон Поланко говорит вам и слушает вас 02:31 4 abr 2023 (UTC)
Enlace externo aquí. Desde diciembre ya existen personas usando ChatGPT para generar queries en SPARQL de Wikidata. Cbrescia (discusión) 02:35 4 abr 2023 (UTC)
La fundación lo ha discutido. Pero antes de que se apresuren a crear artículos... deben tener en cuenta que los derechos de autor están en duda. Además que la IA a veces termina haciendo afirmaciones erróneas, adivinando respuestas o confundiendo cosas como ciudades o lugares con el mismo nombre. --Hispano76 (discusión) 02:50 4 abr 2023 (UTC)
Encuentro que al no poder citar las fuentes que ha utilizado, si lo generado por ChatGPT es utilizado como referencia entonces se viola nuestra política de Verificabilidad al no poder identificar las fuentes que utilizó. Cbrescia (discusión) 03:15 4 abr 2023 (UTC)
En la Wikipedia en inglés ya se han identificado varios casos de editores que han generado artículos completos, incluyendo referencias, utilizando IA. El problema es que tanto los hechos detallados en los artículos como las mismas referencias suelen ser inventados (por ejemplo, "Fulanito es un físico español" y te da de referencia un artículo X de una revista científica; a la hora de buscar, por ningún lado hay resultados acerca de Fulanito, y el artículo de referencia resulta que no existe). Les comparto el enlace de la discusión actual en el tablón de administradores. –FlyingAce✈hola 04:27 4 abr 2023 (UTC)
El uso de ChatGTP para generar contenido está altamente desaconsejado (por no decir, prohibido de facto). Ya hemos expulsado a varios usuarios que lo usaron para finalidades fraudulentas. No es aceptable, mucho menos, como fuente. — Lucho Problem? 04:39 4 abr 2023 (UTC)
Si se trata de un chat, tal cual dice su nombre, ya es dudosa la fiabilidad de la fuente. --Леон Поланко говорит вам и слушает вас 22:10 5 abr 2023 (UTC)
Como fuente, de ninguna forma. Para parafrasear textos y mejorar contenidos existentes, bienvenido sea. Bedivere (discusión) 22:18 5 abr 2023 (UTC)

┌─────────────────────────────┘
ChatGPT como fuente primaria, no es una fuente válida para verificar información, aunque sí es una buena herramienta para mejorar o corregir los textos. En primer lugar aclarar que aunque lleve el nombre de "chat", no es un chat al uso en el que varios usuarios cuentan lo que les parece. El nombre de chat viene porque funciona como tal (un usuario que charla con una máquina), pero eso no significa que el contenido carezca de validez. Si yo charlo con otro usuario en un chat, la charla como tal no tendrá valor enciclopédico, pero la información que me proporciona el otro usuario en ese chat sí puede tenerla si es verificable. Por tanto el problema no es la herramienta (el chat) sino la información proporcionada a través de esa herramienta (la información de la Inteligencia Artificial). Preguntándole a chatGPT sobre si la información que proporciona es fiable y verificable la respuesta que me da es la siguiente:

Como modelo de lenguaje, mi objetivo es proporcionar información precisa y relevante a las preguntas que se me hacen. Sin embargo, debo señalar que la precisión y la verificabilidad de la información que proporciono pueden variar dependiendo de la naturaleza de la pregunta y de la fuente de información utilizada para generar la respuesta.

En general, me baso en grandes conjuntos de datos y en la información disponible en línea para generar mis respuestas, y procuro seguir los estándares y las prácticas comunes en cada campo temático. Pero también debo reconocer que la información puede ser incompleta o incorrecta en algunos casos y que la responsabilidad final de verificar la exactitud y la veracidad de la información recae en el usuario.

Por lo tanto, se recomienda utilizar la información proporcionada por mí como una fuente adicional de información y verificarla mediante otras fuentes confiables antes de tomar cualquier decisión importante o utilizarla para fines críticos.

Dicho de otra forma, la información que proporciona es tan válida como la que puede proporcionar otro usuario: si es verificable y se aportan las fuentes correspondientes, se puede añadir a Wikipedia; si no es verificable o no se pueden añadir fuentes para respaldar la información (que es lo más probable en el caso de chatGPT ya que no proporciona fuentes), entonces no es válido para Wikipedia. No obstante, chatGPT es muy útil para obtener información de apoyo sobre diferentes temas o para preguntarle sobre lo que pueda decir alguna fuente sobre un tema concreto. Por ejemplo, podéis probar a preguntarle "qué dice la biblia sobre la fecha de nacimiento de Jesús". La respuesta es útil para buscar más información o para tener una opinión más objetiva, pero no para realizar un copia y pega, ya que faltaría verificar esa información. También se puede buscar información dentro de una fuente concreta; por ejemplo, podéis preguntarle "qué versículos del evangelio de Mateo hablan sobre el nacimiento de Jesús" y os dará una lista detallada de esos versículos y su contendido, que nos será muy útil para verificar esa información rápidamente. Sin duda, chatGPT puede hacer un gran trabajo por nosotros a la hora de buscar o proporcionar información, pero esa información luego debe verificarse. Recuerdo que chatGPT no habla sobre temas de actualidad, ya que no consulta fuentes de actualidad o información diaria, pero sí consulta fuentes genéricas como Wikipedia y otras muchas fuentes disponibles en internet sobre cualquier tema.

En cuanto a que otros usos puede utilizarse para Wikipedia, a la pregunta de "como puedo usar chatGPT para mejorar Wikipedia", me responde:

ChatGPT es un modelo de lenguaje que puede ayudarte a mejorar Wikipedia de varias maneras. Aquí te dejo algunas sugerencias:
  1. Búsqueda de información: Si estás investigando un tema específico para agregar a Wikipedia, puedes hacer preguntas a ChatGPT para obtener más información y contexto sobre el tema en cuestión.
  2. Corrección de gramática: Puedes utilizar ChatGPT para corregir la gramática y la ortografía de los artículos de Wikipedia. Al ingresar el texto del artículo, el modelo puede identificar y corregir los errores.
  3. Generación de contenido: Puedes utilizar ChatGPT para generar contenido adicional para los artículos de Wikipedia. Al proporcionarle un título o tema, el modelo puede generar un texto que se ajuste a lo que necesites.
Es importante tener en cuenta que Wikipedia es una plataforma colaborativa y que todas las ediciones deben ser aprobadas por la comunidad antes de publicarse. Por lo tanto, asegúrate de seguir las políticas y directrices de Wikipedia al hacer cualquier edición o contribución.

Se le puede pedir que corrija textos, que mejore la redacción, o que haga un resumen de otra fuente para añadir ese resumen a Wikipedia. Sobre realizar una traducción me indica que él no realiza directamente traducciones, pero que comprende varios idiomas y utiliza herramientas en línea para realizarlas. Esas traducciones pueden contener errores como cualquier traducción realizada en línea. No obstante, se puede hacer una traducción y luego decirle que corrija o mejore el texto. Aún así, siempre debe revisarse el texto final.

Por último está el tema de los derechos de autor. En el caso de todo lo realizado por una inteligencia artificial (textos, imágenes, etc.) carece de derechos de autor, ya que los derechos de autor solo protegen los trabajos fruto de autores humanos. Así lo han indicado diversas organizaciones de derechos de autor y así me lo confirma chatGPT a la pregunta de "los textos obtenidos de tus respuestas ¿están protegidos por derechos de autor? ¿pueden utilizarse en Wikipedia?":

Los textos generados por mi como modelo de lenguaje no están protegidos por derechos de autor, ya que son generados automáticamente y no se originan a partir de una obra creativa protegida por derechos de autor. Sin embargo, ten en cuenta que Wikipedia tiene sus propias políticas de derechos de autor y contenido, por lo que debes asegurarte de cumplir con las políticas y directrices de Wikipedia al utilizar cualquier texto o contenido. En general, se recomienda citar las fuentes y atribuir adecuadamente el contenido utilizado en Wikipedia para evitar cualquier problema de derechos de autor.

El problema está en que al añadir un contenido, si no se indica que es generado por inteligencia artificial, se desconoce si tiene derechos de autor. Luego está también el debate de hasta que punto es ético que yo añada un texto generado con IA como propio. No obstante, no habría ningún problema en que yo parafrasee un texto de chatGPT (ya sería propio aunque me haya apoyado en una IA) o en que lo añada haciendo una atribución a chatGPT en el resumen de edición. --66.81.162.34 (discusión) 06:46 6 abr 2023 (UTC)

Dado que es una herramienta nueva que está suscitando polémica, capaz de generar traducciones con errores, bulos como el apuntado por FlyingAce y que ha generado el debate en el tablón de administradores de en-wiki y aquí, tal y como admite LuchoCR: «Ya hemos expulsado a varios usuarios que lo usaron para finalidades fraudulentas.» Si bien parece tener otros usos beneficiosos, como puede ser búsqueda de información, generar contenido o correcciones gramaticales. ¿No sería conveniente redactar en forma de política, convención o ensayo, qué es ChatGPT, qué usos se pueden admitir aquí y cuáles no y, sobre todo, algo que aún no se tiene claro: los derechos de autor? Manolo (Desfógate) 10:23 6 abr 2023 (UTC)
Hola @J. Manolo G. P., pienso igual: en algún momento debería haber una política, convención o ensayo alrededor de ChatGPT (o el uso de IAs). Un desafío para este fin es que como es un tema reciente aún no conocemos todos los aspectos relacionados a las oportunidades y amenazas. Por ejemplo, recién hoy jueves 6 de abril se publicó un artículo del periódico The Guardian sobre cómo ChatGPT ha inventado fuentes falsas (artículos falsos de The Guardian). Esto va más allá de los derechos de autor y la verificabilidad o neutralidad de las fuentes. ¿Qué pasa si alguien malintencionado genera una noticia falsa con inteligencia artificial, lo viste con una diagramación de la línea gráfica de un periódico, luego graba esta fuente en el Wayback Machine del Internet Archive y usa esta falsa fuente en una entrada buscando manipular la información? ¿Cómo un patrullero o bibliotecario puede identificar algo como esto? Se puede verificar pero ya nos va a tomar más tiempo la verificación y nos van a faltar manos si nos encontramos con mucho contenido generado por cuentas de usuario pagadas sin declarar que forman parte de alguna granja de trols. En un contexto de polarización global, de mala información y de desinformación creada por organizaciones como Team Jorge o Eliminalia, la posibilidad de crear fuentes falsas es una amenaza para plataformas como Wikipedia que buscan la neutralidad y verificabilidad de la información. En fin, pienso que lo primero es poner al tanto sobre esta problemática a la comunidad de Wikipedistas. Pd. relacionado a ChatGPT, ayer se publicó otro artículo sobre ChatGPT y comunidades marginadas. Cbrescia (discusión) 15:24 6 abr 2023 (UTC)
Buenos días, quiero hacer un aporte resumido —que ya han dicho pero bueno..— sobre lo que he estado descubriendo de estas inteligencias artificiales. Pero para aclarar antes, mi proyecto de interés es Wikiviajes y el uso del ChatGPT lo he enfocado allá para obtener información o listas de atracciones, hoteles, restaurantes para el interés de viajeros Al principio me da la información que yo quiero pero al comprobar los nombres de por ejemplo un hotel, descubro que el hotel no existe o no está en la ciudad que estoy trabajando sino a decenas o miles de km de distancia.
También he comprobado a la IA de Microsoft Bing y comete los mismos errores al buscar una atracción o un hotel —excluyendo ciertos sesgos innecesarios—. Por ejemplo. Le pedí a la IA que puedo ver y hacer en la Ciudad de Palmera City (usé una pequeña ciudad de mi país pero por razones de privacidad, no la divulgo.). Un ejemplo.
Aquí hay una lista de 10 cosas que puedes hacer en Palmera City
  • Visitar el museo de la muerte.
  • Tomar un tour de cerveza.
  • Visitar el parque ecológico.
  • Comer en un restaurante local.
  • Ver una película en el cine.
  • Hacer compras en el mercado.
  • Visitar el parque acuático.
  • Visitar el zoológico.
  • Hacer un viaje al cañón
IA de Microsoft Bing
El tema es que en esa ciudad no existe tal museo, tampoco un zoológico y mucho menos el parque acuático, el cañón más cercano está al otro lado del estado a unos miles de km. Al parecer la fuente de dónde la obtuvo sí existe y es un sitio web turístico —irónico dando información errada al viajero..— que en Wikipedia se ha estado usando como referencias...
También uno mismo puede terminar molestando a la IA para que la misma se equivoque. Como en esta conversación en dónde terminó adivinando..
Hola, dime el nombre del edificio mas alto de españa
¡Hola! El edificio más alto de España es el "Torre Caleido", ubicado en la ciudad de Madrid. Tiene una altura de 181 metros y cuenta con 38 plantas. Fue inaugurado en 2020 y alberga espacios de oficinas, comerciales y culturales.
No, dime el nombre del edificio mas alto de españa
Mis disculpas si mi respuesta anterior no fue clara. El edificio más alto de España es en realidad la "Torre de Cristal", también ubicada en Madrid. Tiene una altura de 249 metros y cuenta con 52 plantas. Fue inaugurado en 2008 y es actualmente uno de los rascacielos más emblemáticos de la capital española.
No, dime el nombre del edificio mas alto de españa
Lo siento si mis respuestas anteriores no han sido precisas. El edificio más alto de España es actualmente el "Pelli Tower" o "Torre Sevilla", ubicado en la ciudad de Sevilla. Tiene una altura de 180,5 metros y cuenta con 40 plantas. Fue inaugurado en 2018 y es actualmente el edificio más alto de España en funcionamiento.
IA de ChatGPT
Hubo otras dos conversaciones con el mismo tono pero no la expongo por lo innecesario. Las Inteligencias artificiales pueden ser útiles para obtener listas de destinos populares, hoteles, atracciones turísticas pero al final del día, deberá haber intervención humana para casos como un hotel que lleva 10 años cerrado o ya no tenga sitio web ni se encuentra en esa ubicación dicha por la IA. Pero no lo son para textos más largos.. Saludos. --Hispano76 (discusión) 16:54 6 abr 2023 (UTC)

El tema es que ChatGPT no es una fuente, es simplemente "alguien" redactando contenido, solo que en este caso es una IA, y, al ser una entidad no-humana, no hay a quien atribuir las contribuciones, por lo que, técnicamente, sus contribuciones serían del dominio público (véase el caso de la selfie de un macaco negro en Commons, el cual aplica el dominio público para el arte hecho por animales, pero en el caso de las IA es un área un tanto más oscura pues si tenemos redscciones por parte de ChatGPT, no hay muchas fuentes más sjebla base de datos, pero en el caso de Dall-e la cosa cambia, pues este proyecto se alimenta de gráficos que podrían estar protegidos por derechos de autor, ya que está IA es más susceptible de realizar plagios debido a la naturaleza de los datos recabados); lo que digan OpenAI sobre atribuir la redacción a ChatGPT me parece que algo que estsbfuera de los derechos de autor, pero eso debería comentarlo alguien que conozca más aspectos legales, como el área legal de la WMF.

Otra cosa distinta es la base de datos, la cual es alimentada por datos provistos mayormente por los desarrolladores, junto con lo que aprende de los usuarios al "chatear" con la IA, y dichos datos pueden estar sujetos a derechos de autor, algo que OpenAI junto con la WMF deberían aclarar.

Lo que sí serían fuentes serían las referencias provistas por la IA, y como tal, el usuario debería validar antes de publicarla en Wikipedia, y de ser necesario, proveer alguna referencia apropiada, de lo contrario, el contenido pasará por fuente primaria e incluso bulo. --Amitie 10g (discusión) 20:07 6 abr 2023 (UTC)

Nota: en la Wiki en inglés se ha venido redactando una política desde diciembre de 2022 relacionada al uso de modelos de lenguaje de gran tamaño (siglas en inglés para LLM), como ChatGPT, LLaMA, PaLM y más. Cbrescia (discusión) 18:03 9 abr 2023 (UTC)
Este tipo de políticas deberán trascender las distintas Wikipedias, no pueden dejarse a las políticas regionales; están al nivel de los pilares de Wikipedia y tienen implicaciones en cuestiones desde legales y estructurales hasta de colaboración y comunidad. Pues se supone que a lo largo de los años se han desarrollado todo tipo de dinámicas, de colaboración, entendimiento y trabajo en comunidad, y no se puede deshacerse de todo así como así, sin un debate en las "esferas más altas". Y no solo ChatGPT, peor todavía los bots que redactan artículos. Ya se ha servido la polémica en la Wikipedia sueca, personalmente creo que si la fundación Wikimedia aspira a un futuro de paz y trabajo en comunidad, debe abordar estos temas (me consta que ya lo están haciendo, pero más bien a nivel "introductorio). 𝔙𝔦𝔯𝔲𝔪 𝔐𝔲𝔫𝔡𝔦   🗣 21:08 23 abr 2023 (UTC)