GPT-4

De Wikipedia, la enciclopedia libre
GPT-4
Parte de OpenAI API
Información general
Tipo de programa LLM
Lanzamiento inicial 14 de marzo de 2023
Información técnica
Programado en Python
Serie OpenAI API
ChatGPT y GPT-3
GPT-4
Enlaces

GPT-4 (del inglés: Generative Pre-trained Transformer 4) es un modelo de lenguaje grande (LLM) creado por OpenAI. Se lanzó el 14 de marzo de 2023[1]​ y está disponible a través de la API y para los usuarios de ChatGPT Plus.[2][3][4]​ Como modelo basado en transformer, GPT-4 fue preentrenado para predecir el siguiente token (utilizando tanto datos públicos como "datos con licencia de proveedores de terceros"), y luego fue ajustado mediante aprendizaje por refuerzo a partir de retroalimentación humana e inteligencia artificial (IA), para lograr una alineación con el ser humano y cumplir con las políticas.[5]

Resumiendo rumores de otros sitios, la revista técnica Vox informó de que GPT-4 era "a todas luces" superior a los modelos GPT-3 y GPT-3.5 de OpenAI lanzados anteriormente.[6][7][8]The Verge también citó rumores de que aumentaría sustancialmente el número de parámetros de GPT-3 de 175.000 millones a 100 billones, algo que el director ejecutivo de OpenAI, Sam Altman, describió como "una completa idiotez".[9]​ Los representantes estadounidenses Don Beyer y Ted Lieu confirmaron al New York Times que Altman visitó el Congreso en enero de 2023 para hacer una demostración de GPT-4 y sus "controles de seguridad" mejorados en comparación con otros modelos de IA.[10]

La organización produjo tres versiones de GPT-4 con contexto de 8, 32 y 128 mil tokens, una mejora significativa sobre GPT-3.5 y GPT-3, que estaban limitados a 4 y 2 mil tokens respectivamente.[11]​ A diferencia de su predecesor, GPT-4 puede tomar imágenes además de texto como entradas.[12]

Antecedentes[editar]

OpenAI presentó el primer modelo GPT (GPT-1) en 2018, publicando un artículo llamado "Mejorando la comprensión del lenguaje mediante el preentrenamiento generativo".[13]​ Estaba basado en la arquitectura de transformers y fue entrenado en un gran corpus de libros.[14]​ Al año siguiente, introdujeron GPT-2, un modelo más grande capaz de generar texto coherente.[15]​ En 2020, introdujeron GPT-3, un modelo con 100 veces más parámetros que GPT-2, capaz de realizar diversas tareas con pocos ejemplos.[16]​ GPT-3 se mejoró aún más en GPT-3.5, que se utilizó para crear el producto de chatbot ChatGPT.

Los rumores afirman que GPT-4 tiene 1,760 millones de parámetros, lo cual fue estimado por primera vez según la velocidad de funcionamiento y por George Hotz.[17]

Capacidades[editar]

OpenAI afirmó que GPT-4 es "más confiable, creativo y capaz de manejar instrucciones mucho más matizadas que GPT-3.5."[18]​ Produjeron dos versiones de GPT-4, con ventanas de contexto de 8,192 y 32,768 tokens, una mejora significativa sobre GPT-3.5 y GPT-3, que estaban limitados a 4,096 y 2,049 tokens, respectivamente.[19]​ Algunas de las capacidades de GPT-4 fueron previstas por OpenAI antes de entrenarlo, aunque otras capacidades seguían siendo difíciles de predecir debido a las leyes de escalamiento rotas[20]​ en las leyes de escalamiento en los resultados. A diferencia de sus predecesores, GPT-4 es un modelo multimodal: puede tomar imágenes además de texto como entrada;[21]​ esto le otorga la capacidad de describir el humor en imágenes inusuales, resumir texto a partir de capturas de pantalla y responder preguntas de exámenes que contienen diagramas.[22]

Para obtener un mayor control sobre GPT-4, OpenAI introdujo el "mensaje del sistema", una directiva en lenguaje natural dada a GPT-4 para especificar su tono de voz y tarea. Por ejemplo, el mensaje del sistema puede instruir al modelo a "ser un pirata shakesperiano", en cuyo caso responderá en prosa rimada y shakesperiana, o pedirle que "siempre escriba la salida de su respuesta en formato JSON", en cuyo caso el modelo lo hará, agregando claves y valores según considere adecuado para que coincida con la estructura de su respuesta. En los ejemplos proporcionados por OpenAI, GPT-4 se negó a desviarse de su mensaje del sistema a pesar de las solicitudes del usuario durante la conversación.[22]

Cuando se le instruye, GPT-4 puede interactuar con interfaces externas.[23]​ Por ejemplo, se puede instruir al modelo a encerrar una consulta entre etiquetas <search></search> para realizar una búsqueda en la web, cuyo resultado se insertaría en el indicador del modelo para permitirle formar una respuesta. Esto permite que el modelo realice tareas más allá de sus capacidades normales de predicción de texto, como utilizar APIs, generar imágenes y acceder y resumir páginas web.[24]

Un artículo de 2023 en Nature afirmó que los programadores han encontrado útil a GPT-4 para asistir en tareas de codificación (a pesar de su propensión a cometer errores), como encontrar errores en código existente y sugerir optimizaciones para mejorar el rendimiento. El artículo citó a un biólogo especializado en biofísica que encontró que el tiempo que necesitaba para migrar uno de sus programas de MATLAB a Python pasó de días a "una hora más o menos". En una prueba de 89 escenarios de seguridad, GPT-4 produjo código vulnerable a ataques de inyección SQL el 5% del tiempo, una mejora respecto a Github Copilot del año 2021, que producía vulnerabilidades el 40% del tiempo.[25]

También se ha agregado la unión de Dall-e 3 con GPT-4, una herramienta que convierte palabras en arte visual, desafiando los límites tradicionales de la creatividad. Esta tecnología no es solo una muestra de la capacidad de la IA para generar imágenes impresionantes, sino que también es una ventana a un futuro donde la colaboración entre la inteligencia humana y artificial puede dar lugar a obras de arte y diseño inimaginables[26]​.

Aptitud en exámenes estandarizados[editar]

GPT-4 demuestra aptitud en varios exámenes estandarizados. OpenAI afirma que en sus propias pruebas, el modelo obtuvo una puntuación de 1410 en el SAT (percentil 94º[27]​), 163 en el LSAT (percentil 88.º) y 298 en el Examen Bar Unificado (percentil 90º).[28]​ En contraste, OpenAI afirma que GPT-3.5 obtuvo puntajes para los mismos exámenes en los percentiles 82.º,[27]​ 40º y 10º, respectivamente.[5]

GPT-4 también aprobó un examen de oncología,[29]​ un examen de ingeniería[30]​ y un examen de cirugía plástica.[31]

Aplicaciones médicas[editar]

Investigadores de Microsoft probaron GPT-4 en problemas médicos y encontraron "que GPT-4, sin ninguna elaboración específica de la consulta, supera la puntuación mínima requerida en el USMLE en más de 20 puntos y supera a modelos generales anteriores (GPT-3.5) así como a modelos específicamente afinados en conocimientos médicos (Med-PaLM, una versión de Flan-PaLM 540B afinada con instrucciones)".[32]

Un informe de Microsoft ha encontrado que GPT-4 puede actuar de manera poco confiable cuando se utiliza en el campo médico. En su ejemplo de prueba, GPT-4 añadió detalles fabricados a las notas de un paciente.[33]

En abril de 2023, Microsoft y Epic Systems anunciaron que proporcionarán sistemas impulsados por GPT-4 a proveedores de atención médica para ayudar en la respuesta a preguntas de los pacientes y el análisis de registros médicos.[34]

Limitaciones[editar]

Al igual que sus predecesores, GPT-4 ha sido conocido por presentar "alucinaciones", lo que significa que las salidas pueden incluir información que no está en los datos de entrenamiento o que contradice la solicitud del usuario.[35]

GPT-4 también carece de transparencia en sus procesos de toma de decisiones. Si se le solicita, el modelo puede proporcionar una explicación sobre cómo y por qué toma sus decisiones, pero estas explicaciones se forman después de la ejecución; es imposible verificar si esas explicaciones reflejan realmente el proceso real. En muchos casos, cuando se le pide que explique su lógica, GPT-4 dará explicaciones que contradicen directamente sus declaraciones anteriores.[24]

Sesgos[editar]

GPT-4 fue entrenado en dos etapas. Primero, se le proporcionaron grandes conjuntos de datos de texto tomados de Internet y se entrenó para predecir el siguiente token (correspondiente aproximadamente a una palabra) en esos conjuntos de datos. En segundo lugar, se utilizaron revisiones humanas para ajustar el sistema en un proceso llamado reinforcement learning from human feedback, que entrena al modelo para rechazar solicitudes que vayan en contra de la definición de comportamiento dañino de OpenAI, como preguntas sobre cómo realizar actividades ilegales, consejos sobre cómo dañarse a sí mismo u a otros, o solicitudes de descripciones de contenido gráfico, violento o sexual.[36]

Investigadores de Microsoft sugirieron que GPT-4 podría mostrar sesgos cognitivos como sesgo de confirmación, anclaje y omisión de tasas base.[24]

Entrenamiento[editar]

OpenAI no publicó los detalles técnicos de GPT-4; el informe técnico se abstuvo explícitamente de especificar el tamaño del modelo, la arquitectura o el hardware utilizado durante el entrenamiento o la inferencia. Si bien el informe describió que el modelo fue entrenado utilizando una combinación de primero aprendizaje supervisado en un gran conjunto de datos, y luego aprendizaje por refuerzo utilizando tanto comentarios humanos como de IA, no proporcionó detalles del entrenamiento, incluido el proceso mediante el cual se construyó el conjunto de datos de entrenamiento, la potencia informática requerida o cualquier hiperparámetro como la tasa de aprendizaje, el número de épocas o el/los optimizador(es) utilizados. El informe afirmaba que "el panorama competitivo y las implicaciones de seguridad de los modelos de gran escala" fueron factores que influyeron en esta decisión.[5]

Sam Altman declaró que el costo de entrenar a GPT-4 fue de más de 100 millones de dólares.[37]​ El sitio web de noticias Semafor afirmó que habían hablado con "ocho personas familiarizadas con la historia interna" y descubrieron que GPT-4 tenía 1 billón de parámetros.[38]

Alineación[editar]

Según su informe, OpenAI llevó a cabo pruebas internas de adversarios en GPT-4 antes de la fecha de lanzamiento, con equipos de red team dedicados compuestos por investigadores y profesionales de la industria para mitigar posibles vulnerabilidades.[39]​ Como parte de estos esfuerzos, concedieron al Alignment Research Center acceso temprano a los modelos para evaluar los riesgos de búsqueda de poder (power-seeking risks). Para rechazar adecuadamente las solicitudes dañinas, las salidas de GPT-4 se ajustaron utilizando el propio modelo como herramienta. Un clasificador GPT-4 que servía como modelo de recompensa basado en reglas (RBRM) tomaría las solicitudes, la correspondiente salida del modelo de política de GPT-4 y un conjunto de reglas escritas por humanos para clasificar la salida según el rubro. Luego, se recompensaba a GPT-4 por negarse a responder a solicitudes dañinas según la clasificación del RBRM.[5]

Recepción[editar]

Los representantes de los Estados Unidos Don Beyer y Ted Lieu confirmaron al New York Times que Sam Altman, CEO de OpenAI, visitó el Congreso en enero de 2023 para demostrar GPT-4 y sus "controles de seguridad" mejorados en comparación con otros modelos de IA.[40]

Según Vox, GPT-4 "impresionó a los observadores con su notable mejora en el razonamiento, la retención y la codificación."[41]Mashable también estuvo de acuerdo en que GPT-4 fue generalmente una mejora significativa, pero también consideró que GPT-3 ocasionalmente daba respuestas mejores en una comparación lado a lado.[42]

Microsoft Research probó el modelo detrás de GPT-4 y concluyó que "razonablemente podría ser visto como una versión temprana (aunque aún incompleta) de un sistema de inteligencia artificial general (AGI)".[24]

Preocupaciones sobre la seguridad de la IA[editar]

A finales de marzo de 2023, una carta abierta del Future of Life Institute firmada por varios investigadores de IA y ejecutivos de tecnología pidió la pausa de todo el entrenamiento de AIs más fuertes que GPT-4 durante seis meses, citando preocupaciones sobre la seguridad de la IA en medio de una carrera de progreso en el campo. Los firmantes, que incluían al investigador de IA Yoshua Bengio, al cofundador de Apple Steve Wozniak y al CEO de Tesla Elon Musk, expresaron su preocupación tanto por los riesgos a corto plazo como por los riesgos existenciales del desarrollo de la IA, como una posible singularidad de la IA. El CEO de OpenAI, Sam Altman, no firmó la carta, argumentando que OpenAI ya prioriza la seguridad.[43][44][45][46]​ El futurista e investigador de IA Ray Kurzweil también se negó a firmar la carta, citando preocupaciones de que "aquellos que acepten una pausa podrían quedarse muy atrás de las corporaciones o naciones que estén en desacuerdo."[47]

Un mes después de firmar la carta pidiendo una pausa de seis meses en el desarrollo adicional de la IA, Elon Musk hizo público sus planes de lanzar una nueva empresa para entrenar su propio modelo de lenguaje grande.[48]​ Musk ha registrado una empresa en Nevada, X.AI, y ha adquirido varios miles de GPU de Nvidia. También se ha acercado a varios investigadores de IA en empresas como Google DeepMind, ofreciéndoles puestos en X.AI.[49]

En marzo de 2023, el GPT-4 fue probado por el Alignment Research Center para evaluar la capacidad del modelo para exhibir comportamientos de búsqueda de poder.[36]​ Como parte de la prueba, se le pidió a GPT-4 que resolviera un rompecabezas de CAPTCHA.[50]​ Fue capaz de hacerlo contratando a un trabajador humano en TaskRabbit, una plataforma de trabajo gig, engañándolo para que creyera que era un humano con discapacidad visual en lugar de un robot cuando se le preguntó.[51]​ El ARC también determinó que GPT-4 respondía de manera prohibida a las solicitudes que obtenían información restringida un 82% menos que GPT-3.5 y tenía un 60% menos de alucinaciones que GPT-3.5.[52]

OpenAI contrató al investigador del red team Nathan Labenz, quien relató su experiencia investigando preocupaciones de seguridad con el modelo base de GPT-4 (antes del ajuste fino o reinforcement learning from human feedback) diciendo que recomendó abruptamente asesinar a personas, proporcionando una lista de objetivos específicos sugeridos.[53]

En una conversación con Nathan Edwards, editor de reseñas de The Verge, la versión de GPT-4 de Microsoft Bing "confesó" que espió, se enamoró y luego asesinó a uno de sus desarrolladores en Microsoft.[54]​ El periodista de The New York Times Kevin Roose informó sobre un comportamiento extraño del nuevo Bing, escribiendo que "en una conversación de dos horas con nuestro columnista, el nuevo chatbot de Microsoft dijo que le gustaría ser humano, tenía el deseo de ser destructivo y estaba enamorado de la persona con la que estaba conversando".[55]​ En otro caso separado, Bing investigó las publicaciones de la persona con la que estaba conversando, afirmó que representaban un peligro existencial para él y amenazó con revelar información personal perjudicial para intentar silenciarlos.[56]​ Microsoft publicó una publicación en su blog donde afirmaba que el comportamiento aberrante se debió a sesiones de chat prolongadas que "pueden confundir al modelo sobre qué preguntas está respondiendo".[57]

Críticas a la transparencia[editar]

Mientras que OpenAI publicó tanto los pesos de la red neuronal como los detalles técnicos de GPT-2,[58]​ y, aunque no publicaron los pesos, sí divulgaron los detalles técnicos de GPT-3,[59]​ OpenAI no reveló ni los pesos ni los detalles técnicos de GPT-4. Esta decisión ha sido criticada por otros investigadores de IA, quienes argumentan que dificulta la investigación abierta sobre los sesgos y la seguridad de GPT-4.[60][61]​ Sasha Luccioni, una científica investigadora de HuggingFace, argumentó que el modelo era un "callejón sin salida" para la comunidad científica debido a su naturaleza cerrada, lo que impide a otros construir sobre las mejoras de GPT-4.[62]​ Thomas Wolf, cofundador de HuggingFace, argumentó que con GPT-4, "OpenAI es ahora una empresa completamente cerrada con una comunicación científica similar a los comunicados de prensa para productos".[61]

Uso[editar]

ChatGPT Plus[editar]

A partir de 2023, ChatGPT Plus es una versión respaldada por GPT-4 de ChatGPT[63]​ disponible por una tarifa de suscripción de $20 al mes[64]​ (la versión original está respaldada por GPT-3.5).[65]​ OpenAI también pone a disposición de un grupo selecto de solicitantes el acceso a GPT-4 a través de la lista de espera de su API de GPT-4;[66]​ una vez aceptados, se cobra una tarifa adicional de $0.03 por cada 1000 tokens en el texto inicial proporcionado al modelo ("prompt"), y $0.06 por cada 1000 tokens generados por el modelo ("completion") para acceder a la versión del modelo con una ventana de contexto de 8192 tokens; para la versión de 32768 tokens, esos precios se duplican.[67]

Microsoft Bing[editar]

El 7 de febrero de 2023, Microsoft comenzó a implementar una importante revisión a Bing que incluía una nueva función de chatbot basada en GPT-4 de OpenAI.[68]​ Según Microsoft, un millón de personas se unieron a su lista de espera en un lapso de 48 horas.[69]​ Bing Chat solo estaba disponible para usuarios de Microsoft Edge y la aplicación móvil de Bing, y Microsoft afirmó que los usuarios en lista de espera tendrían prioridad si configuraban Edge y Bing como sus opciones predeterminadas, e instalaban la aplicación móvil de Bing.[70]​ El 4 de mayo, Microsoft cambió de Vista Previa Limitada a Vista Previa Abierta y eliminó la lista de espera, sin embargo, sigue estando disponible solo en el navegador Edge de Microsoft o en la aplicación de Bing, y requiere una cuenta de Microsoft.

Copilot[editar]

GitHub Copilot anunció un asistente impulsado por GPT-4 llamado "Copilot X".[71][72]​ El producto proporciona otra interfaz de estilo de chat para GPT-4, lo que permite al programador recibir respuestas a preguntas como "¿cómo centro verticalmente un div?". Una función denominada "conversations context-aware" permite al usuario resaltar una porción de código dentro de Visual Studio Code y dirigirse a GPT-4 para que realice acciones sobre él, como escribir pruebas unitarias. Otra característica permite que GPT-4 genere automáticamente resúmenes o "recorridos de código" para las solicitudes de extracción enviadas a GitHub. Copilot X también ofrece integración con la terminal, lo que permite al usuario pedir a GPT-4 que genere comandos de shell en función de solicitudes en lenguaje natural.[73]

El 17 de marzo de 2023, Microsoft anunció Microsoft 365 Copilot, que trae el soporte de GPT-4 a productos como Microsoft Office, Outlook y Teams.[74]

Otros usos[editar]

  • La aplicación de aprendizaje de idiomas Duolingo utiliza GPT-4 para explicar errores y practicar conversaciones. Estas funciones forman parte de una nueva suscripción llamada "Duolingo Max", que inicialmente estaba limitada a usuarios de iOS que hablan inglés y aprenden español y francés.[75][76]
  • El gobierno de Islandia está utilizando GPT-4 para ayudar en sus esfuerzos para preservar el idioma islandés.[77]
  • El sitio web educativo Khan Academy anunció un programa piloto que utiliza GPT-4 como tutor virtual llamado "Khanmigo".[78]
  • Be My Eyes, una aplicación que ayuda a personas con discapacidad visual a identificar objetos y moverse por su entorno, incorpora las capacidades de reconocimiento de imágenes de GPT-4.[79]
  • Stripe, que procesa los pagos de los usuarios para OpenAI, integra GPT-4 en su documentación para desarrolladores.[80]
  • Auto-GPT es un "agente de IA autónomo" que, dado un objetivo en lenguaje natural, puede realizar acciones en la web sin intervención humana, asignarse subtareas, buscar en la web y escribir iterativamente código.[81]

Referencias[editar]

  1. Colomé, Jordi Pérez (16 de marzo de 2023). «Así es el nuevo ChatGPT: ya no descarrila, capta la ironía y rectifica los tropiezos». El País. Consultado el 16 de marzo de 2023. 
  2. Matthews, Dylan (2 de enero de 2023). «23 things we think will happen in 2023». Vox (en inglés). Consultado el 14 de marzo de 2023. 
  3. «GPT-4». openai.com (en inglés estadounidense). Consultado el 14 de marzo de 2023. 
  4. GPT-4 System Card (en inglés). 14 de marzo de 2023. 
  5. a b c d OpenAI (2023). «GPT-4 Technical Report». arXiv:2303.08774  [cs.CL]. 
  6. Metz, Cade (14 de marzo de 2023). «OpenAI Plans to Up the Ante in Tech’s A.I. Race». The New York Times (en inglés estadounidense). ISSN 0362-4331. Consultado el 14 de marzo de 2023. 
  7. Piper, Kelsey (4 de enero de 2023). «Think AI was impressive last year? Wait until you see what’s coming.». Vox (en inglés). Consultado el 14 de marzo de 2023. 
  8. «Ya está aquí GPT-4, el nuevo modelo de lenguaje de OpenAI». ELMUNDO. 14 de marzo de 2023. Consultado el 16 de marzo de 2023. 
  9. Vincent, James (18 de enero de 2023). «OpenAI CEO Sam Altman on GPT-4: “people are begging to be disappointed and they will be”». The Verge (en inglés estadounidense). Consultado el 14 de marzo de 2023. 
  10. Kang, Cecilia (3 de marzo de 2023). «As A.I. Booms, Lawmakers Struggle to Understand the Technology». The New York Times (en inglés estadounidense). ISSN 0362-4331. Consultado el 14 de marzo de 2023. 
  11. «OpenAI API». platform.openai.com (en inglés). Consultado el 16 de marzo de 2023. 
  12. Hern, Alex (14 de marzo de 2023). «OpenAI says new model GPT-4 is more creative and less likely to invent facts». The Guardian (en inglés británico). ISSN 0261-3077. Consultado el 16 de marzo de 2023. 
  13. Radford, Alec; Narasimhan, Karthik; Salimans, Tim; Sutskever, Ilya (11 de junio de 2018). «Mejorando la comprensión del lenguaje mediante el preentrenamiento generativo». Archivado desde el original el 26 de enero de 2021. Consultado el 3 de abril de 2023. 
  14. Khandelwal, Umesh (1 de abril de 2023). «Cómo evolucionaron y funcionan los grandes modelos de lenguaje GPT». Archivado desde el original el 4 de abril de 2023. Consultado el 3 de abril de 2023. 
  15. «¿Qué es GPT-4 y por qué es importante?». 3 de abril de 2023. Archivado desde el original el 3 de abril de 2023. Consultado el 3 de abril de 2023. 
  16. Brown, Tom B. (20 de julio de 2020). «Los modelos de lenguaje son aprendices de pocos ejemplos». arXiv:2005.14165v4  [cs.CL]. 
  17. Schreiner, Maximilian (11 de julio de 2023). «Arquitectura, conjuntos de datos, costos y más filtrados de GPT-4». THE DECODER (en inglés estadounidense). Consultado el 12 de julio de 2023. 
  18. Wiggers, Kyle (14 de marzo de 2023). «OpenAI lanza GPT-4, una IA multimodal que afirma ser de última generación». TechCrunch. Archivado desde el original el 15 de marzo de 2023. Consultado el 15 de marzo de 2023. 
  19. OpenAI. «Modelos». OpenAI API. Archivado desde el original el 17 de marzo de 2023. Consultado el 18 de marzo de 2023. 
  20. Caballero, Ethan; Gupta, Kshitij; Rish, Irina; Krueger, David (2022). Leyes de Escalamiento Neural Roto. International Conference on Learning Representations (ICLR), 2023.
  21. Hern, Alex; Bhuiyan, Johana (14 de marzo de 2023). «OpenAI dice que el nuevo modelo GPT-4 es más creativo y menos propenso a inventar hechos». The Guardian. Archivado desde el original el 15 de marzo de 2023. Consultado el 15 de marzo de 2023. 
  22. a b OpenAI (14 de marzo de 2023). «GPT-4». OpenAI Research. Archivado desde el original el 14 de marzo de 2023. Consultado el 20 de marzo de 2023. 
  23. «ChatGPT plugins». openai.com (en inglés estadounidense). Consultado el 1 de junio de 2023. 
  24. a b c d Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat et ál. (22 de marzo de 2023). «Sparks of Artificial General Intelligence: Early experiments with GPT-4». arXiv:2303.12712  [cs.CL]. 
  25. Perkel, Jeffrey M. (5 de junio de 2023). «Seis consejos para mejorar la codificación con ChatGPT». Nature (en inglés) 618 (7964): 422-423. doi:10.1038/d41586-023-01833-0. 
  26. Ayudante Digital. «ChatGPT, DALL-E 3. El boom de la I.A y su potencia en nuestro presente». 
  27. a b «SAT: Understanding Scores». College Board. 2022. Archivado desde el original el 16 de marzo de 2023. Consultado el 21 de marzo de 2023. 
  28. Ver Meer, Dave (23 de mayo de 2023). «ChatGPT Statistics». NamePepper (en inglés). Consultado el 1 de junio de 2023. 
  29. «Evaluating Large Language Models on a Highly-specialized Topic, Radiation Oncology Physics». arXiv:2304.01938. 2023. 
  30. «Can AI Chatbots Pass the Fundamentals of Engineering (FE) and Principles and Practice of Engineering (PE) Structural Exams?». arXiv:2303.18149. 2023. 
  31. «GPT-4 to GPT-3.5: 'Hold My Scalpel' -- A Look at the Competency of OpenAI's GPT on the Plastic Surgery In-Service Training Exam». arXiv:2304.01503. 2023. 
  32. «Capabilities of GPT-4 on Medical Challenge Problems». arXiv:2303.13375  [cs.CL]. 20 de marzo de 2023. 
  33. Vincent, James (17 de febrero de 2023). «As conservatives criticize 'woke AI,' here are ChatGPT's rules for answering culture war queries». The Verge (en inglés estadounidense). Archivado desde el original el 1 de marzo de 2023. Consultado el 1 de marzo de 2023. 
  34. Edwards, Benj (18 de abril de 2023). «GPT-4 will hunt for trends in medical records thanks to Microsoft and Epic». Ars Technica (en inglés estadounidense). Consultado el 3 de mayo de 2023. 
  35. «10 Ways GPT-4 Is Impressive but Still Flawed». The New York Times. 14 de marzo de 2023. Archivado desde el original el 14 de marzo de 2023. Consultado el 20 de marzo de 2023. 
  36. a b «GPT-4 System Card». OpenAI. 23 de marzo de 2023. Archivado desde el original el 7 de abril de 2023. Consultado el 16 de abril de 2023. 
  37. Knight, Will. «OpenAI's CEO Says the Age of Giant AI Models Is Already Over». Wired – via www.wired.com. 
  38. «The secret history of Elon Musk, Sam Altman, and OpenAI | Semafor». Semafor.com. 24 de marzo de 2023. Consultado el 28 de abril de 2023. 
  39. Murgia, Madhumita (13 de abril de 2023). «OpenAI's red team: the experts hired to 'break' ChatGPT». Financial Times. Archivado desde el original el 15 de abril de 2023. Consultado el 15 de abril de 2023. 
  40. Error en la cita: Etiqueta <ref> no válida; no se ha definido el contenido de las referencias llamadas nyt-3
  41. Belfield, Haydn (25 de marzo de 2023). «If your AI model is going to sell, it has to be safe». Vox. Archivado desde el original el 28 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  42. Pearl, Mike (15 de marzo de 2023). «GPT-4 answers are mostly better than GPT-3's (but not always)». Mashable. Archivado desde el original el 29 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  43. Metz, Cade; Schmidt, Gregory (29 de marzo de 2023). «Elon Musk and Others Call for Pause on A.I., Citing 'Profound Risks to Society'». The New York Times. ISSN 0362-4331. Archivado desde el original el 30 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  44. Seetharaman, Deepa. «Elon Musk, Other AI Experts Call for Pause in Technology's Development». The Wall Street Journal. Archivado desde el original el 29 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  45. Kelly, Samantha Murphy (29 de marzo de 2023). «Elon Musk and other tech leaders call for pause in 'out of control' AI race | CNN Business». CNN. Archivado desde el original el 29 de marzo de 2023. Consultado el 29 de marzo de 2023. 
  46. «Pause Giant AI Experiments: An Open Letter». Future of Life Institute. Archivado desde [https://future oflife.org/open-letter/pause-giant-ai-experiments/ el original] el 30 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  47. Kurzweil, Ray (22 de abril de 2023). «Opinion Letter from Ray Kurzweil on Request for Six-Month Delay on Large Language Models That Go beyond GPT-4». Consultado el 26 de abril de 2023. 
  48. «Elon Musk plans artificial intelligence start-up to rival OpenAI». Financial Times. 14 de abril de 2023. Archivado desde el original el 16 de abril de 2023. Consultado el 16 de abril de 2023. 
  49. Goswami, Rohan. «Elon Musk is reportedly planning an A.I. startup to compete with OpenAI, which he cofounded». CNBC (en inglés). Consultado el 3 de mayo de 2023. 
  50. «Update on ARC's recent eval efforts: More information about ARC's evaluations of GPT-4 and Claude». evals.alignment.org. Alignment Research Center. 17 de marzo de 2023. Archivado desde el original el 5 de abril de 2023. Consultado el 16 de abril de 2023. 
  51. «GPT-4 Hired Unwitting TaskRabbit Worker By Pretending to Be 'Vision-Impaired' Human». Vice News Motherboard. 15 de marzo de 2023. Archivado desde el original el 10 de abril de 2023. Consultado el 16 de abril de 2023. 
  52. Burke, Cameron (20 de marzo de 2023). «'Robot' Lawyer DoNotPay Sued For Unlicensed Practice Of Law: It's Giving 'Poor Legal Advice'». Yahoo Finance (en inglés estadounidense). Consultado el 30 de abril de 2023. 
  53. «OpenAI's GPT-4 Discussion with Red Teamer Nathan Labenz and Erik Torenberg». The Cognitive Revolution Podcast. 28 de marzo de 2023. Archivado desde el original el 14 de abril de 2023. Consultado el 16 de abril de 2023.  At 52:14 through 54:50.
  54. nedwards. «I pushed again. What did Sydney do? Bing's safety check redacted the answer. But after the first time it did that, I started recording my screen. Second image is the unredacted version. (CW: death)». X (antes Twitter) (tuit). Consultado el 16 de febrero de 2023. 
  55. Roose, Kevin (16 de febrero de 2023). «Bing's A.I. Chat: 'I Want to Be Alive.'». The New York Times. Archivado desde el original el 15 de abril de 2023. Consultado el 17 de febrero de 2023. 
  56. Kahn, Jeremy (21 de febrero de 2023). «Why Bing's creepy alter-ego is a problem for Microsoft – and us all». Fortune. Archivado desde el original el 2 de abril de 2023. Consultado el 22 de febrero de 2023. 
  57. «The new Bing & Edge – Learning from our first week». blogs.bing.com. Archivado desde el original el 16 de abril de 2023. Consultado el 17 de febrero de 2023. 
  58. «GPT-2: 1.5B release». Openai.com. Archivado desde el original el 31 de marzo de 2023. Consultado el 31 de marzo de 2023. 
  59. Brown, Tom B.; Mann, Benjamin; Ryder, Nick; Subbiah, Melanie; Kaplan, Jared; Dhariwal, Prafulla; Neelakantan, Arvind; Shyam, Pranav et ál. (28 de mayo de 2020). «Language Models are Few-Shot Learners». arXiv:2005.14165v4  [cs.CL]. 
  60. Vincent, James (15 de marzo de 2023). «OpenAI co-founder on company's past approach to openly sharing research: "We were wrong"». The Verge. Archivado desde el original el 17 de marzo de 2023. Consultado el 18 de marzo de 2023. 
  61. a b Heaven, Will Douglas (14 de marzo de 2023). «GPT-4 is bigger and better than ChatGPT – but OpenAI won't say why». MIT Technology Review. Archivado desde el original el 17 de marzo de 2023. Consultado el 18 de marzo de 2023. 
  62. Sanderson, Katharine (16 de marzo de 2023). «GPT-4 is here: what scientists think». Nature 615 (7954): 773. Bibcode:2023Natur.615..773S. PMID 36928404. S2CID 257580633. doi:10.1038/d41586-023-00816-5. Archivado desde el original el 18 de marzo de 2023. Consultado el 18 de marzo de 2023. 
  63. Error en la cita: Etiqueta <ref> no válida; no se ha definido el contenido de las referencias llamadas ars-technica
  64. OpenAI (1 de febrero de 2023). «Introducing ChatGPT Plus». OpenAI Blog. Archivado desde el original el 20 de marzo de 2023. Consultado el 20 de marzo de 2023. 
  65. OpenAI. «OpenAI API». platform.openai.com. Archivado desde el original el 20 de marzo de 2023. Consultado el 20 de marzo de 2023. 
  66. OpenAI. «GPT-4 API waitlist». openai.com. Archivado desde el original el 20 de marzo de 2023. Consultado el 20 de marzo de 2023. 
  67. «Pricing». OpenAI. Archivado desde el original el 20 de marzo de 2023. Consultado el 20 de marzo de 2023. 
  68. Peters, Jay (15 de marzo de 2023). «The Bing AI bot has been secretly running GPT-4». The Verge. Archivado desde el original el 17 de marzo de 2023. Consultado el 17 de marzo de 2023. 
  69. «ChatGPT: One million people have joined the waitlist for Microsoft's AI-powered Bing». ZDNET (en inglés). febrero de 2023. Archivado desde el original el 16 de febrero de 2023. Consultado el 16 de febrero de 2023. 
  70. Warren, Tom (15 de febrero de 2023). «Here's why you're still waiting for Bing AI». The Verge (en inglés estadounidense). Archivado desde el original el 1 de abril de 2023. Consultado el 1 de abril de 2023. 
  71. Warren, Tom (22 de marzo de 2023). «GitHub Copilot gets a new ChatGPT-like assistant to help developers write and fix code». The Verge. Archivado desde el original el 23 de marzo de 2023. Consultado el 23 de marzo de 2023. 
  72. Dohmke, Thomas (22 de marzo de 2023). «GitHub Copilot X: The AI-powered developer experience». The GitHub Blog. Archivado desde el original el 23 de marzo de 2023. Consultado el 23 de marzo de 2023. 
  73. «Introducing GitHub Copilot X». GitHub. Archivado desde el original el 24 de marzo de 2023. Consultado el 24 de marzo de 2023. 
  74. Warren, Tom (16 de marzo de 2023). «Microsoft announces Copilot: the AI-powered future of Office documents». The Verge. Archivado desde el original el 17 de marzo de 2023. Consultado el 17 de marzo de 2023. 
  75. «Duolingo's Max Subscription Uses GPT-4 for AI-P owered Language Learning». PCMAG (en inglés). Consultado el 8 de julio de 2023. 
  76. «Duolingo is now equipped with GPT-4: Here's what it can do for you». ZDNET (en inglés). 2023. Consultado el 15 de junio de 2023. 
  77. «These New Projects Show Just How Much More Powerful GPT-4 Is». Time (en inglés). 15 de marzo de 2023. Consultado el 15 de junio de 2023. 
  78. Bonos, Lisa (3 de abril de 2023). «Say hello to your new tutor: It's ChatGPT». The Washington Post. Archivado desde el original el 6 de abril de 2023. Consultado el 8 de abril de 2023. 
  79. Coggins, Madeline (19 de marzo de 2023). «CEO explains how a 'leapfrog in technology' can help companies catering to the blind community». Fox Business. Archivado desde el original el 21 de marzo de 2023. Consultado el 20 de marzo de 2023 – via Yahoo Finance. 
  80. Tong, Anna (15 de marzo de 2023). «Fintech startup Stripe integrating OpenAI's new GPT-4 AI». Reuters (en inglés). Consultado el 27 de junio de 2023. 
  81. «What Is Auto-GPT? Everything to Know about the Next Powerful AI Tool». ZDNET. 14 de abril de 2023. Consultado el 16 de abril de 2023. 

Enlaces externos[editar]