Ir al contenido

Inteligencia artificial generativa

De Wikipedia, la enciclopedia libre

La inteligencia artificial generativa o IA generativa es un tipo de sistema de inteligencia artificial (IA) capaz de generar texto, imágenes u otros medios en respuesta a comandos.[1][2]​ Los modelos de IA generativa aprenden los patrones y la estructura de sus datos de entrenamiento de entrada y luego generan nuevos datos que tienen características similares.[3][4]

Los sistemas de IA generativa notables incluyen ChatGPT (y su variante Microsoft Copilot), un bot conversacional creado por OpenAI usando sus modelos de lenguaje grande fundacionales GPT-3 y GPT-4;[5]​ y Bard, un bot conversacional creado por Google usando Gemini. Otros modelos generativos de IA incluyen sistemas de arte de inteligencia artificial como Stable Diffusion, Midjourney y DALL-E.[6]

En su origen, la IA generativa surgió con el propósito de simular los procesos de pensamiento humano. Hoy en día, IA generativa tiene aplicaciones potenciales en una amplia gama de industrias, que incluyen el arte, la escritura, el desarrollo de software, el diseño de productos, la atención médica, las finanzas, los juegos, el marketing y la moda.[7][8][9]​ La inversión en IA generativa aumentó a principios de la década de 2020, con grandes empresas como Microsoft, Google y Baidu, así como numerosas empresas más pequeñas que desarrollan modelos de IA generativa.[1][10][11]

La IA generativa persigue el desarrollo de la alfabetización y las competencias en IA por parte de la ciudadanía[12]​. ​ La UNESCO pretende alcanzar un enfoque centrado en el ser humano, basado en principios de inclusión y equidad, garantizando un «AI for all» en términos de innovación y conocimiento[13][14]​.​ En este sentido, uno de los desafíos más importantes es garantizar que la IA sea diseñada y utilizada de manera ética y responsable

Sin embargo, también existen preocupaciones sobre el posible uso indebido de la IA generativa, como la creación de noticias falsas o deepfakes, que pueden usarse para engañar o manipular a las personas.[15][16]​La IA toma información de diferentes fuentes y las une, no se valida la cientificidad de la información tomada. Permite interactuar de forma diferente con un buscador web o con un manual escolar, hay que tener en cuenta que la IA es una fuente más de información generada en un ecosistema virtual.[17]​En este mismo sentido, en septiembre de 2023, la UNESCO ha emitido una llamada urgente a los gobiernos de todo el mundo para que regulen de manera eficaz la IA generativa en el ámbito educativo.[18]

Historia[editar]

Un piquetero en la huelga del Sindicato de Guionistas de Estados Unidos de 2023. Si bien no es una prioridad principal, una de las solicitudes del WGA en 2023 es «regulaciones sobre el uso de IA (generativa)».[19]

Desde su fundación, el campo del aprendizaje automático ha utilizado modelos estadísticos, incluidos modelos generativos, para modelar y predecir datos. A partir de finales de la década de 2000, el surgimiento del aprendizaje profundo impulsó el progreso y la investigación en el procesamiento de imágenes y videos, el análisis de texto, el reconocimiento de voz y otras tareas. Sin embargo, la mayoría de las redes neuronales profundas se entrenaron como modelos discriminativos que realizan tareas de clasificación, como la clasificación de imágenes basada en redes neuronales convolucionales.

En 2014, avances como el autocodificador variacional y la red generativa adversativa produjeron las primeras redes neuronales profundas prácticas capaces de aprender modelos generativos, en lugar de discriminativos, de datos complejos como imágenes. Estos modelos generativos profundos fueron los primeros capaces de generar no solo etiquetas de clase para imágenes, sino también imágenes completas.[20]

En 2017, la red Transformador permitió avances en los modelos generativos, lo que llevó al primer transformador generativo preentrenado en 2018.[21]​ A esto le siguió en 2019 GPT-2, que demostró la capacidad de generalizar sin supervisión a muchas tareas diferentes como modelo fundacional.[22]

En 2021, el lanzamiento de DALL-E, un modelo generativo de píxeles basado en transformadores, seguido de Midjourney y Stable Diffusion marcó el surgimiento del arte práctico de inteligencia artificial de alta calidad a partir de indicaciones de lenguaje natural.

En enero de 2023, Futurism.com publicó la historia de que CNET había estado usando una herramienta de IA interna no revelada para escribir al menos 77 de sus historias; después de que se conoció la noticia, CNET publicó correcciones a 41 de las historias.[23]

En marzo de 2023, se lanzó GPT-4. Un equipo de Microsoft Research argumentó que «podría verse razonablemente como una versión temprana (pero aún incompleta) de un sistema de inteligencia artificial fuerte (IAF)».[24]

En abril de 2023, el tabloide alemán Die Aktuelle publicó una entrevista falsa generada por IA con el solitario expiloto de carreras Michael Schumacher. La historia incluía dos posibles revelaciones: la portada incluía la línea «engañosamente real», y dentro de la revista reconocía al final de la entrevista que la entrevista fue generada por IA. El editor en jefe fue despedido poco después en medio de la controversia.[25]

Modalidades[editar]

A detailed oil painting of figures in a futuristic opera scene
Théâtre d'Opéra Spatial, una imagen generada por Midjourney

Un sistema generativo de IA se construye aplicando aprendizaje automático no supervisado o autosupervisado a un conjunto de datos. Las capacidades de un sistema de IA generativa dependen de la modalidad o el tipo de conjunto de datos utilizado.

La IA generativa puede ser unimodal o multimodal; los sistemas unimodales toman solo un tipo de entrada, mientras que los sistemas multimodales pueden tomar más de un tipo de entrada.[26]​ Por ejemplo, una versión de GPT-4 de OpenAI acepta entradas de texto e imágenes.[27]

Elaboración de órdenes para la IA generativa.[editar]

En el contexto de la IA un Prompts son instrucciones elaboradas por los usuarios que le brindamos a un sistema para que este genere una respuesta. Estos prompts son una forma de guiar el comportamiento del modelo de la IA para obtener el resultado deseado.[30]​ ​Estas órdenes están destinadas para máquinas, y ellas responden automáticamente a pedidos simples y complejos. Pueden ser elaborados tanto como textos o como audios.[31]​ ​

Uso de los verbos para la creación de Prompts[editar]

Al momento de redactar consignas es muy importante que le prestemos atención a los verbos, ya que si queremos que la IA nos devuelva una respuesta útil debemos tener en cuenta la utilización de dichos verbos. Puede pasar estar usando un verbo cuando en realidad debería ir otro, por ello debemos tener en cuenta cuáles están dentro de un mismo conjunto.[30]​ A continuación algunos ejemplos.[32]

Categorías y

Procesos Cognitivos

Nombres Alternativos Definiciones
Reconocer Identificar Confirmar que la información que se presenta explícitamente ya se encuentra en la memoria a largo plazo.
Rememorar Reproducir Extraer información de la memoria a largo plazo a partir de algún estímulo.
Interpretar Aclarar, parafrasear,

representar, traducir

Cambiar de una forma de representación a otra.
Ejemplificar Ilustrar Proponer ejemplos que ilustren y muestren una idea o principio.
Clasificar Categorizar, agrupar Determinar que algo pertenece a una categoría.
Resumir Abstraer, generalizar Extraer las ideas o los datos principales de una información.
Inferirir Concluir, extrapolar,

predecir

Sacar conclusiones a partir de la información presentada.
Comparar Contrastar, mapear, relacionar Detectar correspondencias entre dos ideas, objetos o acontecimientos
Explicar Modelar Construir modelos causa-efectos

Preocupaciones[editar]

El desarrollo de la IA generativa ha generado preocupación por parte de gobiernos, empresas e individuos, lo que ha dado lugar a protestas, acciones legales, llamados a suspender los experimentos de IA y acciones por parte de múltiples gobiernos. En una sesión informativa del Consejo de Seguridad de las Naciones Unidas en julio de 2023, el Secretario General António Guterres afirmó que "la IA generativa tiene un enorme potencial para el bien y el mal a escala", que la IA puede "impulsar el desarrollo global" y contribuir entre 10 y 15 billones de dólares al crecimiento global para 2030, pero que su uso malicioso "podría causar niveles horribles de muerte y destrucción, traumas generalizados y daños psicológicos a una escala inimaginable".[33]


Pérdida de empleos

Desde los primeros días del desarrollo de la IA, ha habido argumentos planteados por Joseph Weizenbaum, creador de ELIZA, y otros, sobre si las tareas que pueden realizar las computadoras en realidad deberían ser realizadas por ellas, dada la diferencia entre computadoras y humanos, así como entre los cálculos cuantitativos y los juicios cualitativos basados en valores.[34]​ En abril de 2023, se informó que la IA de generación de imágenes había provocado la pérdida del 70% de los puestos de trabajo de ilustradores de videojuegos en China.[35][36]​ En julio de 2023, los avances en la IA generativa contribuyeron a los 2023 conflictos laborales de Hollywood. Fran Drescher, presidenta del Sindicato de Actores de Cine, declaró que "la inteligencia artificial representa una amenaza existencial para las profesiones creativas" durante la huelga SAG-AFTRA de 2023.[37]


Deepfakes

Los deepfakes (un acrónimo de "aprendizaje profundo" y "falso"[38]​) son medios generados por IA que toman a una persona en una imagen o video existente y lo reemplazan con la imagen de otra persona utilizando redes neuronales artificiales.[39]​ Los deepfakes han llamado la atención generalizada y han generado preocupaciones por su uso en videos pornográficos de celebridades, pornografía de venganza, noticias falsas, engaños y fraudes financieros.[40][41][42][43]​ Esto ha provocado respuestas tanto de la industria como del gobierno para detectar y limitar su uso.[44][45]


Cibercrimen

La capacidad de la IA generativa para crear contenido falso realista se ha explotado en numerosos tipos de delitos cibernéticos, incluidas las estafas de phishing.[46]​ Se han utilizado vídeos y audio deepfake para crear desinformación y fraude. Shuman Ghosemajumder, exjefe de fraude de Google, predijo que aunque los vídeos deepfake causaron revuelo en los medios de comunicación, pronto se volverán comunes y, como resultado, más peligrosos.[47]​ Los ciberdelincuentes han creado grandes modelos de lenguaje centrados en el fraude, incluidos WormGPT y FraudGPT.[48]

Investigaciones recientes realizadas en 2023 han revelado que la IA generativa tiene debilidades que pueden ser manipuladas por delincuentes para extraer información dañina sin pasar por salvaguardas éticas. El estudio presenta ejemplos de ataques realizados en ChatGPT, incluidos Jailbreaks y psicología inversa. Además, personas malintencionadas pueden utilizar ChatGPT para ataques de ingeniería social y ataques de phishing, lo que revela la naturaleza dañina de estas tecnologías.[49]


Regulación

En la Unión Europea, la propuesta de Ley de Inteligencia Artificial incluye requisitos para divulgar material protegido por derechos de autor utilizado para entrenar sistemas generativos de IA y etiquetar cualquier resultado generado por IA como tal.[50]

En Estados Unidos, un grupo de empresas, incluidas OpenAI, Alphabet y Meta, firmaron un acuerdo voluntario con la Casa Blanca en julio de 2023 para usar marcas de agua en el contenido generado por IA.[51]

En China, las Medidas Provisionales para la Gestión de Servicios de IA Generativa introducidas por la Administración del Ciberespacio de China regulan cualquier IA generativa de cara al público. Incluye requisitos para usar marcas de agua en las imágenes o videos generados, regulaciones sobre datos de entrenamiento y calidad de etiquetas, restricciones a la recopilación de datos personales y una directriz de que la IA generativa debe "adherirse a los valores fundamentales socialistas". [52][53]

Véase también[editar]

Enlaces externos[editar]

Referencias[editar]

  1. a b Griffith, Erin; Metz, Cade (27 de enero de 2023). «Anthropic Said to Be Closing In on $300 Million in New A.I. Funding». The New York Times. Consultado el 14 de marzo de 2023. 
  2. Lanxon, Nate; Bass, Dina; Davalos, Jackie (10 de marzo de 2023). «A Cheat Sheet to AI Buzzwords and Their Meanings». Bloomberg News. Consultado el 14 de marzo de 2023. 
  3. Pasick, Adam (27 de marzo de 2023). «Artificial Intelligence Glossary: Neural Networks and Other Terms Explained». The New York Times (en inglés estadounidense). ISSN 0362-4331. Consultado el 22 de abril de 2023. 
  4. Andrej Karpathy; Pieter Abbeel; Greg Brockman; Peter Chen; Vicki Cheung; Yan Duan; Ian Goodfellow; Durk Kingma; Jonathan Ho; Rein Houthooft; Tim Salimans; John Schulman; Ilya Sutskever; Wojciech Zaremba (16 de junio de 2016). «Generative models». OpenAI. 
  5. Metz, Cade (14 de marzo de 2023). «OpenAI Plans to Up the Ante in Tech's A.I. Race». The New York Times (en inglés estadounidense). ISSN 0362-4331. Consultado el 31 de marzo de 2023. 
  6. Roose, Kevin (21 de octubre de 2022). «A Coming-Out Party for Generative A.I., Silicon Valley's New Craze». The New York Times. Consultado el 14 de marzo de 2023. 
  7. «Don't fear an AI-induced jobs apocalypse just yet». The Economist. 6 de marzo de 2023. Consultado el 14 de marzo de 2023. 
  8. Harreis, H.; Koullias, T.; Roberts, Roger. «Generative AI: Unlocking the future of fashion». 
  9. «How Generative AI Can Augment Human Creativity». Harvard Business Review. 16 de junio de 2023. ISSN 0017-8012. Consultado el 20 de junio de 2023. 
  10. «The race of the AI labs heats up». The Economist. 30 de enero de 2023. Consultado el 14 de marzo de 2023. 
  11. Yang, June; Gokturk, Burak (14 de marzo de 2023). «Google Cloud brings generative AI to developers, businesses, and governments». 
  12. Vicente Yagüe Jara, María Isabel; López Martínez, Olivia; Navarro, Verónica; Cuéllar Santiago, Francisco (01/10/2023). «Escritura, creatividad e inteligencia artificial. ChatGPT en el contexto universitario». Revista Comunicar. doi:10.3916/C77-2023-04. Consultado el 2/11/2023. 
  13. UNESCO (2022). «Recomendación sobre la ética de la inteligencia artificial». Biblioteca Digital UNESCO. Consultado el 2/11/2023. 
  14. «Deepfake Fashion». Consultado el 15 de mayo de 2024. 
  15. Justin Hendrix (16 de mayo de 2023). «Transcript: Senate Judiciary Subcommittee Hearing on Oversight of AI». techpolicy.press. Consultado el 19 de mayo de 2023. 
  16. Alonso Arévalo, Julio; Quinde Cordero, Marlene (19 de abril de 2023). «ChatGPT: La creación automática de textos académicos con Inteligencia artificial y su impacto en la comunicación académica y educativa». Repositorio Documental Universidad de Salamanca. ISSN 2445-0650. Consultado el 2/11/2023. 
  17. Monsalve, C. «Aportes Didacticos para interactuar con herramientas digitales enrriquecidas con IA». Aulas TIC- INFD. 
  18. «La UNESCO llama a regular la Inteligencia Artificial generativa en las escuelas». 
  19. «The Writers Strike Is Taking a Stand on AI». Time (en inglés). 4 de mayo de 2023. Consultado el 11 de junio de 2023. 
  20. Tomczak, Jakub (2022). Deep Generative Modeling. Cham: Springer. p. 197. ISBN 978-3-030-93157-5. S2CID 246946335. doi:10.1007/978-3-030-93158-2. 
  21. «finetune-transformer-lm». GitHub. Consultado el 19 de mayo de 2023. 
  22. Radford, Alec; Wu, Jeffrey; Child, Rewon; Luan, David; Amodei, Dario; Sutskever, Ilya; others (2019). «Language models are unsupervised multitask learners». OpenAI blog 1 (8): 9. 
  23. Roth, Emma (25 de enero de 2023). «CNET found errors in more than half of its AI-written stories». The Verge. Consultado el 17 de junio de 2023. 
  24. Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat et ál. (2023-03-22). «Sparks of Artificial General Intelligence: Early experiments with GPT-4». arXiv:2303.12712  [cs.CL]. 
  25. «A magazine touted Michael Schumacher's first interview in years. It was actually AI». NPR. 28 de abril de 2023. Consultado el 17 de junio de 2023. 
  26. https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/
  27. «Explainer: What is Generative AI, the technology behind OpenAI's ChatGPT?». Reuters. 17 de marzo de 2023. Consultado el 17 de marzo de 2023. 
  28. Bommasani, R; Hudson, DA; Adeli, E; Altman, R; Arora, S; von Arx, S; Bernstein, MS; Bohg, J et ál. (2021-08-16). «On the opportunities and risks of foundation models». arXiv:2108.07258  [cs.LG]. 
  29. «Explainer: What is Generative AI, the technology behind OpenAI's ChatGPT?». Reuters. 17 de marzo de 2023. Consultado el 17 de marzo de 2023. 
  30. a b «¿Cómo abordar la inteligencia artificial en el aula?». 
  31. Monsalve, C. «Aportes didácticos para interactuar con herramientas digitales enriquecidas con IA». Aulas TIC-INFD. 
  32. Ruiz Martin, Hector (15 de diciembre de 2021). ¿Cómo aprendemos? Una aproximación científica al aprendizaje y la enseñanza. Editorial Graó. p. 104. 
  33. «Secretary-General's remarks to the Security Council on Artificial Intelligence». un.org. 18 de julio de 2023. Consultado el 27 de julio de 2023. 
  34. Tarnoff, Ben (4 de agosto de 2023). «Lessons from Eliza». The Guardian Weekly. pp. 34-9. 
  35. Zhou, Viola (11 de abril de 2023). «AI is already taking video game illustrators' jobs in China». Rest of World (en inglés estadounidense). Consultado el 17 de agosto de 2023. 
  36. Carter, Justin (11 de abril de 2023). «China's game art industry reportedly decimated by growing AI use». Game Developer (en inglés). Consultado el 17 de agosto de 2023. 
  37. Collier, Kevin (14 de julio de 2023). «Actors vs. AI: Strike brings focus to emerging use of advanced tech». NBC News. «SAG-AFTRA has joined the Writer's [sic] Guild of America in demanding a contract that explicitly demands AI regulations to protect writers and the works they create. ... The future of generative artificial intelligence in Hollywood — and how it can be used to replace labor — has become a crucial sticking point for actors going on strike. In a news conference Thursday, Fran Drescher, president of the Screen Actors Guild-American Federation of Television and Radio Artists (more commonly known as SAG-AFTRA), declared that 'artificial intelligence poses an existential threat to creative professions, and all actors and performers deserve contract language that protects them from having their identity and talent exploited without consent and pay.'». 
  38. Brandon, John (16 de febrero de 2018). «Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise». Fox News (en inglés estadounidense). Archivado desde el original el 15 de junio de 2018. Consultado el 20 de febrero de 2018. 
  39. Cole, Samantha (24 de enero de 2018). «We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now». Vice. Archivado desde el original el 7 de septiembre de 2019. Consultado el 4 de mayo de 2019. 
  40. «What Are Deepfakes & Why the Future of Porn is Terrifying». Highsnobiety (en inglés estadounidense). 20 de febrero de 2018. Archivado desde el original el 14 de julio de 2021. Consultado el 20 de febrero de 2018. 
  41. «Experts fear face swapping tech could start an international showdown». The Outline (en inglés). Archivado desde el original el 16 de enero de 2020. Consultado el 28 de febrero de 2018. 
  42. Roose, Kevin (4 de marzo de 2018). «Here Come the Fake Videos, Too». The New York Times (en inglés estadounidense). ISSN 0362-4331. Archivado desde el original el 18 de junio de 2019. Consultado el 24 de marzo de 2018. 
  43. Schreyer, Marco; Sattarov, Timur; Reimer, Bernd; Borth, Damian (2019). «Adversarial Learning of Deepfakes in Accounting» (en en). arXiv:1910.03810  [cs.LG]. 
  44. «Join the Deepfake Detection Challenge (DFDC)». deepfakedetectionchallenge.ai. Archivado desde el original el 12 de enero de 2020. Consultado el 8 de noviembre de 2019. 
  45. Clarke, Yvette D. (28 de junio de 2019). «H.R.3230 - 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019». www.congress.gov. Archivado desde el original el 17 de diciembre de 2019. Consultado el 16 de octubre de 2019. 
  46. Sjouwerman, Stu (26 de diciembre de 2022). «Deepfakes: Get ready for phishing 2.0». Fast Company. Consultado el 31 de julio de 2023. 
  47. Sonnemaker, Tyler. «As social media platforms brace for the incoming wave of deepfakes, Google's former 'fraud czar' predicts the biggest danger is that deepfakes will eventually become boring». Business Insider (en inglés estadounidense). Consultado el 31 de julio de 2023. 
  48. «After WormGPT, FraudGPT Emerges to Help Scammers Steal Your Data». PCMAG (en inglés). Consultado el 31 de julio de 2023. 
  49. «From ChatGPT to ThreatGPT: Impact of Generative AI in Cybersecurity and Privacy | IEEE Journals & Magazine | IEEE Xplore». ieeexplore.ieee.org. Consultado el 17 de noviembre de 2023. 
  50. Chee, Foo Yun; Mukherjee, Supantha (14 de junio de 2023). «EU lawmakers vote for tougher AI rules as draft moves to final stage». Reuters (en inglés). Consultado el 26 de julio de 2023. 
  51. Bartz, Diane; Hu, Krystal (21 de julio de 2023). «OpenAI, Google, others pledge to watermark AI content for safety, White House says». Reuters. 
  52. Ye, Josh (13 de julio de 2023). «China says generative AI rules to apply only to products for the public». Reuters. Consultado el 13 de julio de 2023. 
  53. «生成式人工智能服务管理暂行办法». 13 de julio de 2023.