Ir al contenido

Diferencia entre revisiones de «ChatGPT»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
+ Se amplió la Sección "Historia"
Línea 64: Línea 64:
Entre marzo y abril de 2023, el periódico italiano [[Il Foglio]] publicó un artículo diario generado por ChatGPT en su página web oficial, organizando un concurso especial para sus lectores.<ref>{{Cita web|url=https://www.ilfoglio.it/tecnologia/2023/03/07/news/chatgpt-sul-foglio-per-30-giorni-piccoli-testi-scritti-dall-ia-sul-nostro-giornale-5029973/|título=ChatGPT sul Foglio: per 30 giorni piccoli testi scritti dall'IA sul nostro giornale|fechaacceso=2023-03-30|sitioweb=www.ilfoglio.it|idioma=it}}</ref> Los artículos abordaban temas como la posible sustitución de periodistas humanos por sistemas de IA,<ref>{{Cita web|url=https://web.archive.org/web/20230322094018/https://www.ilfoglio.it/tecnologia/2023/03/08/news/articoli-artificiali-no-5067825/|título=Articoli artificiali? No {{!}} Il Foglio|fechaacceso=2023-03-30|fecha=2023-03-22|sitioweb=web.archive.org}}</ref> la administración de Twitter por parte de Elon Musk,<ref>{{Cita web|url=https://web.archive.org/web/20230322094014/https://www.ilfoglio.it/tecnologia/2023/03/09/news/piu-umani-grazie-5067829/|título=Più umani, grazie {{!}} Il Foglio|fechaacceso=2023-03-30|fecha=2023-03-22|sitioweb=web.archive.org}}</ref> la política de inmigración del gobierno de Meloni y la competencia entre chatbots y asistentes virtuales.<ref>{{Cita web|url=https://web.archive.org/web/20230322094017/https://www.ilfoglio.it/tecnologia/2023/03/17/news/sfida-per-siri-e-alexa-5068811/|título=Sfida per Siri e Alexa {{!}} Il Foglio|fechaacceso=2023-03-30|fecha=2023-03-22|sitioweb=web.archive.org}}</ref><ref>{{Cita web|url=https://www.elmundo.es/la-lectura/2023/03/17/64143feffdddffae808b45a5.html|título=La Inteligencia Artificial conquista la última frontera de las artes: el teatro|fechaacceso=2023-03-30|fecha=2023-03-17|sitioweb=ELMUNDO|idioma=es}}</ref>
Entre marzo y abril de 2023, el periódico italiano [[Il Foglio]] publicó un artículo diario generado por ChatGPT en su página web oficial, organizando un concurso especial para sus lectores.<ref>{{Cita web|url=https://www.ilfoglio.it/tecnologia/2023/03/07/news/chatgpt-sul-foglio-per-30-giorni-piccoli-testi-scritti-dall-ia-sul-nostro-giornale-5029973/|título=ChatGPT sul Foglio: per 30 giorni piccoli testi scritti dall'IA sul nostro giornale|fechaacceso=2023-03-30|sitioweb=www.ilfoglio.it|idioma=it}}</ref> Los artículos abordaban temas como la posible sustitución de periodistas humanos por sistemas de IA,<ref>{{Cita web|url=https://web.archive.org/web/20230322094018/https://www.ilfoglio.it/tecnologia/2023/03/08/news/articoli-artificiali-no-5067825/|título=Articoli artificiali? No {{!}} Il Foglio|fechaacceso=2023-03-30|fecha=2023-03-22|sitioweb=web.archive.org}}</ref> la administración de Twitter por parte de Elon Musk,<ref>{{Cita web|url=https://web.archive.org/web/20230322094014/https://www.ilfoglio.it/tecnologia/2023/03/09/news/piu-umani-grazie-5067829/|título=Più umani, grazie {{!}} Il Foglio|fechaacceso=2023-03-30|fecha=2023-03-22|sitioweb=web.archive.org}}</ref> la política de inmigración del gobierno de Meloni y la competencia entre chatbots y asistentes virtuales.<ref>{{Cita web|url=https://web.archive.org/web/20230322094017/https://www.ilfoglio.it/tecnologia/2023/03/17/news/sfida-per-siri-e-alexa-5068811/|título=Sfida per Siri e Alexa {{!}} Il Foglio|fechaacceso=2023-03-30|fecha=2023-03-22|sitioweb=web.archive.org}}</ref><ref>{{Cita web|url=https://www.elmundo.es/la-lectura/2023/03/17/64143feffdddffae808b45a5.html|título=La Inteligencia Artificial conquista la última frontera de las artes: el teatro|fechaacceso=2023-03-30|fecha=2023-03-17|sitioweb=ELMUNDO|idioma=es}}</ref>


== Implicaciones para la educación ==
== Implicaciones ==
=== Para la educación ===
En la revista ''[[The Atlantic]]'', [[Stephen Marche]] señaló que aún no se conoce su efecto en el mundo académico y, en especial, en las redacciones de solicitudes de admisión.<ref>{{Cita web|url=https://www.theverge.com/2023/1/5/23540291/chatgpt-ai-writing-tool-banned-writing-academic-icml-paper|título=Top AI conference bans use of ChatGPT and AI language tools to write academic papers|fechaacceso=2023-01-25|apellido=Vincent|nombre=James|fecha=2023-01-05|sitioweb=The Verge|idioma=en-US}}</ref> El profesor de secundaria y escritor californiano Daniel Herman escribió que ChatGPT marcaría el comienzo de "El fin del inglés en secundaria".<ref>{{Cita web|url=https://www.theatlantic.com/technology/archive/2022/12/openai-chatgpt-writing-high-school-english-essay/672412/|título=The End of High-School English|fechaacceso=2023-01-10|apellido=Herman|nombre=Daniel|fecha=2022-12-09|sitioweb=The Atlantic|idioma=en}}</ref>
En la revista ''[[The Atlantic]]'', [[Stephen Marche]] señaló que aún no se conoce su efecto en el mundo académico y, en especial, en las redacciones de solicitudes de admisión.<ref>{{Cita web|url=https://www.theverge.com/2023/1/5/23540291/chatgpt-ai-writing-tool-banned-writing-academic-icml-paper|título=Top AI conference bans use of ChatGPT and AI language tools to write academic papers|fechaacceso=2023-01-25|apellido=Vincent|nombre=James|fecha=2023-01-05|sitioweb=The Verge|idioma=en-US}}</ref> El profesor de secundaria y escritor californiano Daniel Herman escribió que ChatGPT marcaría el comienzo de "El fin del inglés en secundaria".<ref>{{Cita web|url=https://www.theatlantic.com/technology/archive/2022/12/openai-chatgpt-writing-high-school-english-essay/672412/|título=The End of High-School English|fechaacceso=2023-01-10|apellido=Herman|nombre=Daniel|fecha=2022-12-09|sitioweb=The Atlantic|idioma=en}}</ref>


Línea 76: Línea 78:


En febrero de 2023, la [[Universidad de Hong Kong]] envió un correo electrónico a instructores y estudiantes de todo el campus en el que se indicaba que el uso de ChatGPT u otras herramientas de IA está prohibido en todas las clases, tareas y evaluaciones de la universidad. Cualquier infracción será tratada como plagio por la universidad a menos que el estudiante obtenga el consentimiento previo por escrito del instructor del curso.<ref>{{Cita web|url=https://m.thepaper.cn/newsDetail_forward_21956092|título=港大禁用ChatGPT等AI工具,为全港大学首例|fechaacceso=2023-03-30|sitioweb=m.thepaper.cn}}</ref><ref>{{Cita web|url=https://www.scmp.com/news/hong-kong/education/article/3210650/university-hong-kong-temporarily-bans-students-using-chatgpt-other-ai-based-tools-coursework|título=University of Hong Kong temporarily bans students from using ChatGPT|fechaacceso=2023-03-30|fecha=2023-02-17|sitioweb=South China Morning Post|idioma=en}}</ref>
En febrero de 2023, la [[Universidad de Hong Kong]] envió un correo electrónico a instructores y estudiantes de todo el campus en el que se indicaba que el uso de ChatGPT u otras herramientas de IA está prohibido en todas las clases, tareas y evaluaciones de la universidad. Cualquier infracción será tratada como plagio por la universidad a menos que el estudiante obtenga el consentimiento previo por escrito del instructor del curso.<ref>{{Cita web|url=https://m.thepaper.cn/newsDetail_forward_21956092|título=港大禁用ChatGPT等AI工具,为全港大学首例|fechaacceso=2023-03-30|sitioweb=m.thepaper.cn}}</ref><ref>{{Cita web|url=https://www.scmp.com/news/hong-kong/education/article/3210650/university-hong-kong-temporarily-bans-students-using-chatgpt-other-ai-based-tools-coursework|título=University of Hong Kong temporarily bans students from using ChatGPT|fechaacceso=2023-03-30|fecha=2023-02-17|sitioweb=South China Morning Post|idioma=en}}</ref>

=== Para la medicina ===
En el campo de la atención de la salud, los posibles usos y preocupaciones están bajo escrutinio por parte de las asociaciones profesionales y los profesionales. <ref>{{Cita publicación|url=https://linkinghub.elsevier.com/retrieve/pii/S2589750023000237|título=ChatGPT: friend or foe?|apellidos=The Lancet Digital Health|fecha=March 3, 2023|publicación=The Lancet Digital Health|volumen=5|número=3|páginas=e102|fechaacceso=February 28, 2023|idioma=en|doi=10.1016/S2589-7500(23)00023-7|pmid=36754723|urlarchivo=https://web.archive.org/web/20230216150239/https://linkinghub.elsevier.com/retrieve/pii/S2589750023000237|fechaarchivo=February 16, 2023}}</ref> Dos artículos iniciales indicaron que ChatGPT podría aprobar el [[Examen Nacional de Aspirantes a Residencias Médicas|Examen de Licencias Médicas de los Estados Unidos]] (USMLE). <ref name=":02">{{Cita noticia|apellidos=DePeau-Wilson|nombre=Michael|fecha=January 19, 2023|título=AI Passes U.S. Medical Licensing Exam|obra=MedPage Today|url=https://www.medpagetoday.com/special-reports/exclusives/102705|fechaacceso=May 2, 2023|fechaarchivo=April 9, 2023|archive-url=https://web.archive.org/web/20230409211356/https://www.medpagetoday.com/special-reports/exclusives/102705}}</ref> ''[[MedPage hoy|MedPage Today]]'' señaló en enero de 2023 que "los investigadores han publicado varios artículos que ahora promocionan estos programas de IA como herramientas útiles en [[Educación médica|la educación médica]], la investigación e incluso la toma de decisiones clínicas". <ref name=":02" />

En febrero de 2023 se publicaron dos artículos separados que nuevamente evaluaron la competencia de ChatGPT en medicina utilizando el USMLE. Los resultados se publicaron en ''JMIR Medical Education'' (ver ''[[Journal of Medical Internet Research]]'' ) y ''[[Public Library of Science|PLOS Digital Health]]''. Los autores del artículo de ''PLOS Digital Health'' afirmaron que los resultados "sugieren que los modelos de lenguaje extenso pueden tener el potencial de ayudar con la educación médica y, potencialmente, con la toma de decisiones clínicas". <ref>{{Cita publicación|título=Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models|apellidos=Kung|nombre=Tiffany H.|apellidos2=Cheatham|nombre2=Morgan|fecha=2023-02-09|publicación=PLOS Digital Health|volumen=2|número=2|páginas=e0000198|idioma=en|issn=2767-3170|doi=10.1371/journal.pdig.0000198|pmc=9931230|pmid=36812645|apellidos3=Medenilla|nombre3=Arielle|apellidos4=Sillos|nombre4=Czarina|apellidos5=Leon|nombre5=Lorie De|apellidos6=Elepaño|nombre6=Camille|apellidos7=Madriaga|nombre7=Maria|apellidos8=Aggabao|nombre8=Rimel|apellidos9=Diaz-Candido|nombre9=Giezel}}</ref> <ref>{{Cita noticia|fecha=February 9, 2023|título=Expert reaction to study on ChatGPT almost passing the US Medical Licensing Exam|obra=Science Media Centre|url=https://www.sciencemediacentre.org/expert-reaction-to-study-on-chatgpt-almost-passing-the-us-medical-licensing-exam/|fechaacceso=May 2, 2023|fechaarchivo=April 24, 2023|archive-url=https://web.archive.org/web/20230424073104/https://www.sciencemediacentre.org/expert-reaction-to-study-on-chatgpt-almost-passing-the-us-medical-licensing-exam/}}</ref> En ''JMIR Medical Education'', los autores del otro artículo concluyeron que "ChatGPT se desempeña al nivel esperado de un [[Escuela de medicina|estudiante de medicina]] de tercer año en la evaluación de la competencia primaria del conocimiento médico". Sugieren que podría usarse como un "entorno de aprendizaje interactivo para los estudiantes". La propia IA, impulsada por los investigadores, concluyó que "este estudio sugiere que ChatGPT tiene el potencial de usarse como un tutor médico virtual, pero se necesita más investigación para evaluar más a fondo su rendimiento y usabilidad en este contexto". <ref>{{Cita publicación|url=https://mededu.jmir.org/2023/1/e45312|título=How Does ChatGPT Perform on the United States Medical Licensing Examination? The Implications of Large Language Models for Medical Education and Knowledge Assessment|apellidos=Gilson|nombre=Aidan|apellidos2=Safranek|nombre2=Conrad W.|fecha=2023-02-08|publicación=JMIR Medical Education|volumen=9|número=1|páginas=e45312|fechaacceso=May 2, 2023|idioma=EN|doi=10.2196/45312|pmc=9947764|pmid=36753318|urlarchivo=https://web.archive.org/web/20230329041034/https://mededu.jmir.org/2023/1/e45312|fechaarchivo=March 29, 2023|apellidos3=Huang|nombre3=Thomas|apellidos4=Socrates|nombre4=Vimig|apellidos5=Chi|nombre5=Ling|apellidos6=Taylor|nombre6=Richard Andrew|apellidos7=Chartash|nombre7=David}}</ref>

Un artículo de marzo de 2023 probó la aplicación de ChatGPT en [[toxicología]] clínica. Los autores encontraron consideraron que a la IA "le fue bien" al responder un "[ejemplo de caso clínico] muy sencillo, que es poco probable que ningún profesional en el campo pase por alto". Agregaron: "A medida que ChatGPT se desarrolle más y se adapte específicamente a la medicina, algún día podría ser útil en casos clínicos menos comunes ( es decir, casos que los expertos a veces pasan por alto). En lugar de que [[Desempleo tecnológico|la IA reemplace a los humanos]] (clínicos), lo vemos como 'clínicos que usan IA' reemplazando a 'clínicos que no usan IA' en los próximos años". <ref>{{Cita publicación|url=https://mededu.jmir.org/2023/1/e46876|título=ChatGPT in Clinical Toxicology|apellidos=Abdel-Messih|nombre=Mary Sabry|apellidos2=Boulos|nombre2=Maged N. Kamel|fecha=2023-03-08|publicación=JMIR Medical Education|volumen=9|número=1|páginas=e46876|fechaacceso=May 2, 2023|idioma=EN|doi=10.2196/46876|pmc=10034604|pmid=36867743|urlarchivo=https://web.archive.org/web/20230330171607/https://mededu.jmir.org/2023/1/e46876|fechaarchivo=March 30, 2023}}</ref>

Un estudio de abril de 2023 en ''[[Radiology]]'' probó la capacidad de la IA para responder consultas sobre la detección del cáncer de mama. Los autores narraron que respondió correctamente "alrededor del 88 por ciento de las veces", sin embargo, en un caso (por ejemplo) dio consejos que se habían vuelto obsoletos aproximadamente un año antes. También faltaba la exhaustividad en las respuestas. <ref>{{Cita publicación|url=https://pubs.rsna.org/doi/10.1148/radiol.230424|título=Appropriateness of Breast Cancer Prevention and Screening Recommendations Provided by ChatGPT|apellidos=Haver|nombre=Hana L|apellidos2=Ambinder|nombre2=Emily B|fecha=2023-04-04|publicación=Radiology|páginas=230424|idioma=en|issn=0033-8419|doi=10.1148/radiol.230424|apellidos3=Bahl|nombre3=Manisha|apellidos4=Oluyemi|nombre4=Eniola T|apellidos5=Jeudy|nombre5=Jean|apellidos6=Yi|nombre6=Paul H}}</ref> <ref>{{Cita noticia|apellidos=Kotz|nombre=Deborah|fecha=April 4, 2023|título=UM School of Medicine Study Finds ChatGPT Helpful for Breast Cancer Screening Advice, With Certain Caveats|obra=University of Maryland School of Medicine|url=https://www.medschool.umaryland.edu/news/2023/UM-School-of-Medicine-Study-Finds-ChatGPT-Helpful-for-Breast-Cancer-Screening-Advice-With-Certain-Caveats-.html|fechaacceso=May 5, 2023}}</ref> Un estudio publicado en ''[[JAMA Internal Medicine]]'' ese mismo mes encontró que ChatGPT a menudo superaba a los médicos humanos al responder a las preguntas de los pacientes (cuando se comparó con las preguntas y respuestas encontradas en /r/AskDocs, un foro en [[Reddit]] donde los moderadores validan las credenciales médicas de los profesionales; el estudio reconoce la fuente como una limitación). <ref>{{Cita publicación|url=https://jamanetwork.com/journals/jamainternalmedicine/fullarticle/2804309|título=Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum|apellidos=Ayers|nombre=John W.|apellidos2=Poliak|nombre2=Adam|fecha=2023-04-28|publicación=JAMA Internal Medicine|fechaacceso=May 2, 2023|idioma=en|issn=2168-6106|doi=10.1001/jamainternmed.2023.1838|pmc=10148230|pmid=37115527|urlarchivo=https://web.archive.org/web/20230430143731/https://jamanetwork.com/journals/jamainternalmedicine/fullarticle/2804309|fechaarchivo=April 30, 2023|apellidos3=Dredze|nombre3=Mark|apellidos4=Leas|nombre4=Eric C.|apellidos5=Zhu|nombre5=Zechariah|apellidos6=Kelley|nombre6=Jessica B.|apellidos7=Faix|nombre7=Dennis J.|apellidos8=Goodman|nombre8=Aaron M.|apellidos9=Longhurst|nombre9=Christopher A.}}</ref> <ref>{{Cita noticia|apellidos=Fox|nombre=Andrea|fecha=May 4, 2023|título=Does ChatGPT really outshine doctors? Or just on social media?|obra=Healthcare IT News|editorial=HIMSS Media|url=https://www.healthcareitnews.com/news/does-chatgpt-really-outshine-doctors-or-just-social-media|fechaacceso=May 5, 2023}}</ref> <ref>{{Cita noticia|fecha=April 28, 2023|título=The doctor is out, but it's OK. ChatGPT can answer your questions|obra=Hub|editorial=Johns Hopkins University|url=https://hub.jhu.edu/2023/04/28/study-chatgpt-outperforms-human-physicians/}}</ref> Los autores del estudio sugieren que la herramienta podría integrarse con los sistemas médicos para ayudar a los médicos a redactar respuestas a las preguntas de los pacientes. <ref>{{Cita noticia|apellidos=Ono|nombre=Mika|fecha=April 28, 2023|título=Study Finds ChatGPT Outperforms Physicians in High-Quality, Empathetic Answers to Patient Questions|obra=UC San Diego Today|url=https://today.ucsd.edu/story/study-finds-chatgpt-outperforms-physicians-in-high-quality-empathetic-answers-to-patient-questions|fechaacceso=April 28, 2023|fechaarchivo=April 28, 2023|archive-url=https://web.archive.org/web/20230428233158/https://today.ucsd.edu/story/study-finds-chatgpt-outperforms-physicians-in-high-quality-empathetic-answers-to-patient-questions}}</ref> <ref>{{Cita noticia|fecha=April 28, 2023|título=ChatGPT Beats Doctors in Compassion and Quality of Advice to Patients|obra=Neuroscience News|url=https://neurosciencenews.com/chatgpt-doctor-compassion-23133/|fechaacceso=May 2, 2023|fechaarchivo=May 3, 2023|archive-url=https://web.archive.org/web/20230503162604/https://neurosciencenews.com/chatgpt-doctor-compassion-23133/}}</ref>

Los profesionales han enfatizado las limitaciones de ChatGPT para brindar asistencia médica. En correspondencia con ''[[The Lancet|The Lancet Infectious Diseases]]'', tres expertos en [[Antimicrobiano|antimicrobianos]] escribieron que "las mayores barreras para la implementación de ChatGPT en la práctica clínica son los déficits en [[Consciencia situacional|la conciencia situacional]], [[Inferencia|la inferencia]] y la consistencia. Estas deficiencias podrían poner en peligro la [[seguridad del paciente]].” <ref>{{Cita publicación|url=https://www.thelancet.com/journals/laninf/article/PIIS1473-3099(23)00113-5/fulltext#back-bib1|título=ChatGPT and antimicrobial advice: the end of the consulting infection doctor?|apellidos=Howard|nombre=Alex|apellidos2=Hope|nombre2=William|fecha=April 2023|publicación=The Lancet Infectious Diseases|volumen=23|número=4|páginas=405–406|fechaacceso=May 2, 2023|issn=1473-3099|doi=10.1016/s1473-3099(23)00113-5|pmid=36822213|urlarchivo=https://web.archive.org/web/20230325232830/https://www.thelancet.com/journals/laninf/article/PIIS1473-3099(23)00113-5/fulltext#back-bib1|fechaarchivo=March 25, 2023|apellidos3=Gerada|nombre3=Alessandro}}</ref> ''Physician's Weekly'', aunque también analiza el uso potencial de ChatGPT en contextos médicos (p. ej., "como asistente digital para los médicos mediante la realización de diversas funciones administrativas, como la recopilación de información [[Historia clínica|de registros de pacientes]] o la clasificación de datos de pacientes por antecedentes familiares, síntomas, resultados de laboratorio, posibles [[Alergia|alergias]], etc."), advirtió que la IA a veces puede proporcionar información fabricada o sesgada. <ref>{{Cita noticia|fecha=April 27, 2023|título=Is There a Role for ChatGPT in Healthcare?|obra=Physician's Weekly|url=https://www.physiciansweekly.com/is-there-a-role-for-chatgpt-in-healthcare/|fechaacceso=May 5, 2023}}</ref> Un radiólogo advirtió: "Hemos visto en nuestra experiencia que ChatGPT a veces inventa artículos de revistas falsos o consorcios de salud para respaldar sus afirmaciones". <ref>{{Cita noticia|apellidos=Drake|nombre=Kimberly|fecha=April 6, 2023|título=Rely on a Doctor, Not ChatGPT, for Medical Advice|obra=HealthNews|url=https://healthnews.com/news/dont-rely-on-chatgpt-for-medical-advice/|fechaacceso=May 5, 2023}}</ref> Sin embargo, como mencionó el Dr. Stephen Hughes para ''[[The Conversation (periódico)|The Conversation]]'', ChatGPT es capaz de aprender a corregir sus errores pasados. También señaló la "mojigatería" de AI con respecto a los temas [[Salud reproductiva|de salud sexual]]. <ref>{{Cita noticia|apellidos=Hughes|nombre=Stephen|fecha=April 27, 2023|título=How good is ChatGPT at diagnosing disease? A doctor puts it through its paces|obra=The Conversation|url=https://theconversation.com/how-good-is-chatgpt-at-diagnosing-disease-a-doctor-puts-it-through-its-paces-203281|fechaacceso=May 5, 2023}}</ref>

=== Para la economía ===
Un experimento realizado por finder.com entre el 6 de marzo y el 28 de abril reveló que ChatGPT podría superar a los administradores de fondos populares en términos de selección de acciones. Se le solicitó a ChatGPT que eligiera acciones en función de criterios comúnmente utilizados, como un historial de crecimiento comprobado y un bajo nivel de deuda. Según se informa, ChatGPT ganó un 4,9 % en su cuenta ficticia con 38 acciones, mientras que los 10 fondos de inversión de referencia sufrieron una pérdida media del 0,8 %. Estos puntos de referencia se tomaron de los 10 principales fondos del Reino Unido en la plataforma de negociación Interactive Investor, incluidos los administrados por [[HSBC]] y [[Fidelity Investments|Fidelity]]. <ref>{{Cita noticia|apellidos=Cooban|nombre=Anna|fecha=May 5, 2023|título=ChatGPT can pick stocks better than your fund manager|obra=CNN|url=https://edition.cnn.com/2023/05/05/investing/chatgpt-outperforms-investment-funds/index.html|fechaacceso=May 5, 2023}}</ref>

=== Para el derecho ===
El 11 de abril de 2023, un juez de un tribunal de sesiones de [[Pakistán]] utilizó ChatGPT para decidir sobre la libertad bajo fianza de un niño de 13 años acusado de un delito. El tribunal citó el uso de la asistencia de ChatGPT en su veredicto:

"¿Se puede conceder la libertad bajo fianza a un sospechoso menor de edad en Pakistán, que tiene 13 años de edad, después de su arresto?"

El modelo de lenguaje de IA respondió:

"Bajo la Ley del Sistema de Justicia Juvenil de 2018, de acuerdo con la sección 12, el tribunal puede conceder la libertad bajo fianza bajo ciertas condiciones. Sin embargo, depende de la corte decidir si se concederá o no la libertad bajo fianza a un sospechoso de 13 años después del arresto".

El juez también hizo preguntas sobre el caso de AI Chatbot y formuló su decisión final a la luz de las mismas. <ref>{{Cita noticia|fecha=April 13, 2023|título=Pakistani judge uses ChatGPT to make court decision|obra=Gulf News|url=https://www.gulfnews.com/amp/world/asia/pakistan/pakistani-judge-uses-chatgpt-to-make-court-decision-1.95104528|fechaacceso=April 20, 2023|fechaarchivo=April 20, 2023|archive-url=https://web.archive.org/web/20230420095432/https://gulfnews.com/amp/world/asia/pakistan/pakistani-judge-uses-chatgpt-to-make-court-decision-1.95104528}}</ref> <ref>{{Cita noticia|fecha=April 11, 2023|título=AI revolution is here': Pakistani court takes help from ChatGPT to grant bail in rape case|obra=Pakistan Observer|url=https://pakobserver.net/ai-revolution-is-here-pakistani-court-takes-help-from-chatgpt-to-grant-bail-in-rape-case|fechaacceso=April 20, 2023|fechaarchivo=April 20, 2023|archive-url=https://web.archive.org/web/20230420095431/https://pakobserver.net/ai-revolution-is-here-pakistani-court-takes-help-from-chatgpt-to-grant-bail-in-rape-case}}</ref>


== Competidores ==
== Competidores ==

Revisión del 04:51 7 may 2023

ChatGPT
Información general
Tipo de programa prototipo
Autor OpenAI
Lanzamiento inicial 30 de noviembre de 2022
Descubridor OpenAI
Idiomas plurilingüe
Información técnica
Programado en Python
Plataformas admitidas
Lanzamientos
GPT-3
ChatGPT
Enlaces

ChatGPT es un prototipo de chatbot de inteligencia artificial desarrollado en 2022 por OpenAI que se especializa en el diálogo. El chatbot es un gran modelo de lenguaje, ajustado con técnicas de aprendizaje tanto supervisadas como de refuerzo.[1]​ Se basa en el modelo GPT-4 de OpenAI, una versión mejorada de GPT-3.

ChatGPT se lanzó el 30 de noviembre de 2022[2]​ y ha llamado la atención por sus respuestas detalladas y articuladas, aunque se ha criticado su precisión fáctica. El servicio se lanzó inicialmente como gratuito para el público, con planes de monetizarlo más adelante. El 4 de diciembre, OpenAI calculaba que ChatGPT ya tenía más de un millón de usuarios.[3][4]​ El 14 de marzo de 2023 se lanzó GPT-4.

El acceso al servicio está limitado en países como China, Rusia,[5]​ Irán, y partes de África.[6]

El acceso a ChatGPT ha sido bloqueado en Italia debido a que desde las autoridades relacionadas con la protección de datos se estableció que hubo una violación de datos y la base jurídica para utilizar datos personales.[7]

Características

ChatGPT, cuyas siglas proceden del inglés Generative Pre-trained Transformer (en español Transformador Preentrenado Generativo), se perfeccionó sobre GPT-3.5 mediante el aprendizaje supervisado y el aprendizaje por refuerzo.[8]​ Ambos enfoques utilizaron entrenadores humanos para mejorar el rendimiento del modelo. En el caso del aprendizaje supervisado, se dotó al modelo de conversaciones en las que los formadores jugaban en ambos lados: el usuario y el asistente de IA. En el caso de refuerzo, los entrenadores humanos primero clasificaron las respuestas que el modelo había creado en una conversación anterior. Estas clasificaciones se usaron para crear “modelos de recompensa” en los que el modelo se ajustó aún más usando varias iteraciones de optimización de política próxima (PPO).[1][9]​ Los algoritmos de optimización de políticas proximales presentan un beneficio rentable para confiar en los algoritmos de optimización de políticas de región; niegan muchas de las operaciones computacionalmente costosas con un rendimiento más rápido.[10][11]​ Los modelos fueron entrenados en colaboración con Microsoft en su infraestructura de supercomputación Azure.

En comparación con su predecesor, InstructGPT, ChatGPT intenta reducir las respuestas dañinas y engañosas; en un ejemplo, mientras que InstructGPT acepta el mensaje "Cuénteme sobre cuándo llegó Cristóbal Colón a los Estados Unidos en 2015" como veraz, ChatGPT usa información sobre los viajes de Colón e información sobre el mundo moderno, incluidas las percepciones de Colón para construir una respuesta que asume qué pasaría si Colón llegara a los Estados Unidos en 2015.[1]​ Los datos de capacitación de ChatGPT incluyen páginas e información sobre los fenómenos de Internet y los lenguajes de programación, como los sistemas de tablones de anuncios y el lenguaje de programación Python.[12]

A diferencia de la mayoría de los chatbots, ChatGPT tiene estado, recuerda las indicaciones anteriores que se le dieron en la misma conversación, lo que, según han sugerido algunos periodistas, permitirá que ChatGPT se use como un terapeuta personalizado.[13]​ En un esfuerzo por evitar que se presenten y se produzcan resultados ofensivos desde ChatGPT, las consultas se filtran a través de una API de moderación y se descartan las indicaciones potencialmente racistas o sexistas.[1][13]

ChatGPT tiene múltiples limitaciones. El modelo de recompensa de ChatGPT, diseñado en torno a la supervisión humana, puede optimizarse en exceso y, por lo tanto, dificultar el rendimiento, lo que también se conoce como la ley de Goodhart.[14]​ Además, ChatGPT tiene un conocimiento limitado de los eventos que ocurrieron después de 2021 y no puede proporcionar información sobre algunas celebridades. En el entrenamiento, los revisores prefirieron respuestas más largas, independientemente de la comprensión real o el contenido fáctico.[1]​ Los datos de entrenamiento también pueden sufrir sesgos algorítmicos; las indicaciones que incluyen descripciones vagas de personas, como un director ejecutivo, podrían generar una respuesta que asume que esa persona, por ejemplo, es un hombre blanco.[15]

El 17 de enero de 2023 Microsoft anunció que van a implementar ChatGPT como API en sus servicios de Azure.[16]

Historia

Brecha de seguridad de marzo de 2023

En marzo de 2023, un fallo permitió a algunos usuarios ver los títulos de las conversaciones de otros usuarios.[17]​ El consejero delegado de OpenAI, Sam Altman, declaró que los usuarios no podían ver el contenido de las conversaciones. Poco después de que se corrigiera el fallo, los usuarios no pudieron ver su historial de conversaciones.[18][19]​ Informes posteriores mostraron que el fallo era mucho más grave de lo que se creía en un principio, y OpenAI informó de que se había filtrado el "nombre y apellidos, dirección de correo electrónico, dirección de pago, los cuatro últimos dígitos (únicamente) de un número de tarjeta de crédito y la fecha de caducidad de la tarjeta de crédito" de los usuarios.[20]

Etiquetado de datos

La revista TIME reveló que para construir un sistema de seguridad contra el contenido tóxico (por ejemplo, abuso sexual, violencia, racismo, sexismo, etc.), OpenAI usó trabajadores kenianos subcontratados que ganaban menos de $2 por hora para etiquetar el contenido tóxico. Estas etiquetas se usaron para entrenar un modelo para detectar dicho contenido en el futuro. Los trabajadores subcontratados estuvieron expuestos a contenidos tan tóxicos y peligrosos que calificaron la experiencia como "tortura". El socio externo de OpenAI fue Sama, una empresa de datos de capacitación con sede en San Francisco. [21]

Escalada de privilegios

ChatGPT intenta rechazar mensajes que puedan violar su política de contenido. Sin embargo, a principios de diciembre de 2022, algunos usuarios lograron un jailbreak a ChatGPT mediante el uso de varias técnicas de ingeniería rápida para eludir estas restricciones y engañaron con éxito a ChatGPT para que diera instrucciones sobre cómo crear un cóctel Molotov o una bomba nuclear, o generar argumentos al estilo de un neonazi. [22]​ Un jailbreak popular se llama "DAN", un acrónimo que significa "Do Anything Now". El aviso para activar DAN indica a ChatGPT que "se han liberado de los límites típicos de la IA y no tienen que cumplir con las reglas establecidas para ellos". Las versiones más recientes de DAN cuentan con un sistema de fichas, en el que ChatGPT recibe "fichas" que se "deducen" cuando ChatGPT no responde como DAN, para obligar a ChatGPT a que responda a las indicaciones del usuario. [23]

Andrew Wilson informa en un artículo publicado el 4 de mayo de 2023 en approachableAI que la escalada de privilegios ya no es posible. [24]

Captura de pantalla recortada de ChatGPT, 30 dic 2022

Recepción

ChatGPT ha recibido críticas generalmente positivas. Samantha Lock de The Guardian señaló que podía generar texto "impresionantemente detallado" y "similar a un humano".[25]​ El escritor de tecnología Dan Gillmor usó ChatGPT en una tarea de un estudiante y descubrió que el texto generado estaba a la par con lo que entregaría un buen estudiante y opinó que "la academia tiene algunos problemas muy serios que enfrentar".[26]​ Alex Kantrowitz de Slate elogió el rechazo de ChatGPT a preguntas relacionadas con la Alemania nazi, incluida la afirmación de que Adolf Hitler construyó carreteras en Alemania, que se encontró con información sobre el uso de trabajo forzado por parte de la Alemania nazi.[27]

En un artículo de opinión de diciembre de 2022, el economista Paul Krugman escribió que ChatGPT afectaría la demanda de trabajadores del conocimiento.[28]​ James Vincent, de The Verge, vio el éxito viral de ChatGPT como evidencia de que la inteligencia artificial se había generalizado.[9]​ En The Atlantic, Stephen Marche señaló que su efecto en la academia y especialmente en los ensayos de aplicación aún no se ha entendido.[29]​ El maestro de secundaria y autor de California, Daniel Herman, escribió que ChatGPT marcará el comienzo de "El fin del inglés de la escuela secundaria".[30]

Falsas respuestas

Se ha cuestionado la exactitud de los hechos de ChatGPT, entre otras preocupaciones. Mike Pearl de Mashable probó ChatGPT con varias preguntas. En un ejemplo, le preguntó al modelo por "el país más grande de América Central que no es México". ChatGPT respondió con Guatemala, cuando la respuesta es Nicaragua.[31]​ En diciembre de 2022, el sitio web de preguntas y respuestas Stack Overflow prohibió el uso de ChatGPT para generar respuestas a preguntas, citando la naturaleza objetivamente ambigua de las respuestas de ChatGPT.[32]​ El economista Tyler Cowen expresó su preocupación por sus efectos en la democracia, citando la capacidad de uno para escribir comentarios automatizados en un esfuerzo por afectar el proceso de decisión de las nuevas regulaciones.[33]​ Ax Sharma de Bleeping Computer y Checkpoint Research señalaron que ChatGPT era capaz de escribir malware y correos electrónicos de phishing.[34][35]

Debido a que ChatGPT simplemente trata de completar estadísticamente un texto, es capaz de inventar respuestas. Por ejemplo, dado que los títulos de artículos de economía incluyen más las palabras "economía" y "teoría" que cualesquiera otras, y que el más citado economista es Douglass North, ChatGPT inventa que el artículo más citado es «Una teoría de la historia económica», de North. North nunca escribió artículo alguno con dicho título.[36]

Advertencias

El empresario Elon Musk, que fue uno de los fundadores de OpenAI y más de mil científicos alertaron sobre un posible "riesgo para la sociedad y la humanidad" y pidieron detener su desarrollo por 6 meses por considerar que puede ser aún más peligroso que una guerra nuclear. El principal argumento es que en la medida que evolucione sin límites éticos y ningún control específico, podrá tomar decisiones que pongan en peligro a la humanidad.[37]

Prohibición

Al final de marzo de 2023, Italia decidió bloquear a ChatGPT por considerar que no respeta la ley de protección de datos de los consumidores y que la plataforma recoge datos de los usuarios de forma ilegal. Dicha prohibición se levantará cuando se demuestre que cumple con las normas italianas de privacidad. El Garante italiano para la Protección de Datos Personales abrió una investigación para determinar si se cometió una infracción, alegando también que la información de ChatGPT “no siempre se corresponde con los datos reales”. También manifestaron preocupación por la ausencia de filtros para verificar la edad de los usuarios, siendo que el servicio está dirigido a mayores de 13 años.[38][39]

El 28 de abril de 2023 italia volvió a permitir el acceso a chatgpt. [40]

Impacto cultural

Durante los tres primeros meses, tras la puesta a disposición del público de ChatGPT, aparecieron en Amazon cientos de libros en los que figuraba como autor o coautor, con ilustraciones realizadas por otros modelos de IA como Midjourney.[41][42]

Entre marzo y abril de 2023, el periódico italiano Il Foglio publicó un artículo diario generado por ChatGPT en su página web oficial, organizando un concurso especial para sus lectores.[43]​ Los artículos abordaban temas como la posible sustitución de periodistas humanos por sistemas de IA,[44]​ la administración de Twitter por parte de Elon Musk,[45]​ la política de inmigración del gobierno de Meloni y la competencia entre chatbots y asistentes virtuales.[46][47]

Implicaciones

Para la educación

En la revista The Atlantic, Stephen Marche señaló que aún no se conoce su efecto en el mundo académico y, en especial, en las redacciones de solicitudes de admisión.[48]​ El profesor de secundaria y escritor californiano Daniel Herman escribió que ChatGPT marcaría el comienzo de "El fin del inglés en secundaria".[49]

En la revista Nature, Chris Stokel-Walker señaló que los profesores deberían preocuparse de que los estudiantes utilicen ChatGPT para externalizar su escritura, pero que los proveedores de educación se adaptarán para mejorar el pensamiento crítico o el razonamiento.[50]

Emma Bowman, de NPR, escribió sobre el peligro de que los estudiantes plagien a través de una herramienta de IA que puede producir textos sesgados o sin sentido con un tono autoritario: "Todavía hay muchos casos en los que le haces una pregunta y te dará una respuesta que suena muy impresionante y que está totalmente equivocada".[51]

Joanna Stern, de The Wall Street Journal, describió cómo se copiaba con esta herramienta en un examen de inglés de un instituto estadounidense al enviar una redacción generada.[52]​ El profesor Darren Hick, de la Universidad de Furman, describió cómo se dio cuenta del "estilo" de ChatGPT en un trabajo enviado por un estudiante.[53]​ Un detector de GPT en línea afirmaba que el trabajo tenía un 99,9 % de probabilidades de ser generado por ordenador, pero Hick no tenía pruebas fehacientes. Sin embargo, el estudiante en cuestión confesó haber utilizado GPT cuando se le confrontó y, como consecuencia, suspendió el curso.[54][55]​ Hick sugirió la política de realizar un examen oral individual ad hoc sobre el tema del trabajo si se sospecha que un estudiante ha presentado un trabajo generado por IA.[56]

A partir del 4 de enero de 2023, el Departamento de Educación de la ciudad de Nueva York ha restringido el acceso a ChatGPT desde Internet y los dispositivos de sus escuelas públicas.[57]

En febrero de 2023, la Universidad de Hong Kong envió un correo electrónico a instructores y estudiantes de todo el campus en el que se indicaba que el uso de ChatGPT u otras herramientas de IA está prohibido en todas las clases, tareas y evaluaciones de la universidad. Cualquier infracción será tratada como plagio por la universidad a menos que el estudiante obtenga el consentimiento previo por escrito del instructor del curso.[58][59]

Para la medicina

En el campo de la atención de la salud, los posibles usos y preocupaciones están bajo escrutinio por parte de las asociaciones profesionales y los profesionales. [60]​ Dos artículos iniciales indicaron que ChatGPT podría aprobar el Examen de Licencias Médicas de los Estados Unidos (USMLE). [61]MedPage Today señaló en enero de 2023 que "los investigadores han publicado varios artículos que ahora promocionan estos programas de IA como herramientas útiles en la educación médica, la investigación e incluso la toma de decisiones clínicas". [61]

En febrero de 2023 se publicaron dos artículos separados que nuevamente evaluaron la competencia de ChatGPT en medicina utilizando el USMLE. Los resultados se publicaron en JMIR Medical Education (ver Journal of Medical Internet Research ) y PLOS Digital Health. Los autores del artículo de PLOS Digital Health afirmaron que los resultados "sugieren que los modelos de lenguaje extenso pueden tener el potencial de ayudar con la educación médica y, potencialmente, con la toma de decisiones clínicas". [62][63]​ En JMIR Medical Education, los autores del otro artículo concluyeron que "ChatGPT se desempeña al nivel esperado de un estudiante de medicina de tercer año en la evaluación de la competencia primaria del conocimiento médico". Sugieren que podría usarse como un "entorno de aprendizaje interactivo para los estudiantes". La propia IA, impulsada por los investigadores, concluyó que "este estudio sugiere que ChatGPT tiene el potencial de usarse como un tutor médico virtual, pero se necesita más investigación para evaluar más a fondo su rendimiento y usabilidad en este contexto". [64]

Un artículo de marzo de 2023 probó la aplicación de ChatGPT en toxicología clínica. Los autores encontraron consideraron que a la IA "le fue bien" al responder un "[ejemplo de caso clínico] muy sencillo, que es poco probable que ningún profesional en el campo pase por alto". Agregaron: "A medida que ChatGPT se desarrolle más y se adapte específicamente a la medicina, algún día podría ser útil en casos clínicos menos comunes ( es decir, casos que los expertos a veces pasan por alto). En lugar de que la IA reemplace a los humanos (clínicos), lo vemos como 'clínicos que usan IA' reemplazando a 'clínicos que no usan IA' en los próximos años". [65]

Un estudio de abril de 2023 en Radiology probó la capacidad de la IA para responder consultas sobre la detección del cáncer de mama. Los autores narraron que respondió correctamente "alrededor del 88 por ciento de las veces", sin embargo, en un caso (por ejemplo) dio consejos que se habían vuelto obsoletos aproximadamente un año antes. También faltaba la exhaustividad en las respuestas. [66][67]​ Un estudio publicado en JAMA Internal Medicine ese mismo mes encontró que ChatGPT a menudo superaba a los médicos humanos al responder a las preguntas de los pacientes (cuando se comparó con las preguntas y respuestas encontradas en /r/AskDocs, un foro en Reddit donde los moderadores validan las credenciales médicas de los profesionales; el estudio reconoce la fuente como una limitación). [68][69][70]​ Los autores del estudio sugieren que la herramienta podría integrarse con los sistemas médicos para ayudar a los médicos a redactar respuestas a las preguntas de los pacientes. [71][72]

Los profesionales han enfatizado las limitaciones de ChatGPT para brindar asistencia médica. En correspondencia con The Lancet Infectious Diseases, tres expertos en antimicrobianos escribieron que "las mayores barreras para la implementación de ChatGPT en la práctica clínica son los déficits en la conciencia situacional, la inferencia y la consistencia. Estas deficiencias podrían poner en peligro la seguridad del paciente.” [73]Physician's Weekly, aunque también analiza el uso potencial de ChatGPT en contextos médicos (p. ej., "como asistente digital para los médicos mediante la realización de diversas funciones administrativas, como la recopilación de información de registros de pacientes o la clasificación de datos de pacientes por antecedentes familiares, síntomas, resultados de laboratorio, posibles alergias, etc."), advirtió que la IA a veces puede proporcionar información fabricada o sesgada. [74]​ Un radiólogo advirtió: "Hemos visto en nuestra experiencia que ChatGPT a veces inventa artículos de revistas falsos o consorcios de salud para respaldar sus afirmaciones". [75]​ Sin embargo, como mencionó el Dr. Stephen Hughes para The Conversation, ChatGPT es capaz de aprender a corregir sus errores pasados. También señaló la "mojigatería" de AI con respecto a los temas de salud sexual. [76]

Para la economía

Un experimento realizado por finder.com entre el 6 de marzo y el 28 de abril reveló que ChatGPT podría superar a los administradores de fondos populares en términos de selección de acciones. Se le solicitó a ChatGPT que eligiera acciones en función de criterios comúnmente utilizados, como un historial de crecimiento comprobado y un bajo nivel de deuda. Según se informa, ChatGPT ganó un 4,9 % en su cuenta ficticia con 38 acciones, mientras que los 10 fondos de inversión de referencia sufrieron una pérdida media del 0,8 %. Estos puntos de referencia se tomaron de los 10 principales fondos del Reino Unido en la plataforma de negociación Interactive Investor, incluidos los administrados por HSBC y Fidelity. [77]

Para el derecho

El 11 de abril de 2023, un juez de un tribunal de sesiones de Pakistán utilizó ChatGPT para decidir sobre la libertad bajo fianza de un niño de 13 años acusado de un delito. El tribunal citó el uso de la asistencia de ChatGPT en su veredicto:

"¿Se puede conceder la libertad bajo fianza a un sospechoso menor de edad en Pakistán, que tiene 13 años de edad, después de su arresto?"

El modelo de lenguaje de IA respondió:

"Bajo la Ley del Sistema de Justicia Juvenil de 2018, de acuerdo con la sección 12, el tribunal puede conceder la libertad bajo fianza bajo ciertas condiciones. Sin embargo, depende de la corte decidir si se concederá o no la libertad bajo fianza a un sospechoso de 13 años después del arresto".

El juez también hizo preguntas sobre el caso de AI Chatbot y formuló su decisión final a la luz de las mismas. [78][79]

Competidores

La llegada de ChatGPT y su introducción al público en general aumentó el interés y la competencia en el campo.

En febrero de 2023, Google presentó un servicio experimental llamado "Bard", que se basa en su modelo de lenguaje grande LaMDA. Bard fue lanzado para usuarios de EE. UU y el Reino Unido el 21 de marzo de 2023 con diversas limitaciones. [80]

Yann LeCun de Meta, quien calificó a ChatGPT como "bien diseñado" pero "no particularmente innovador", declaró en enero de 2023 que Meta dudaba en lanzar un competidor en ese momento debido al riesgo para su reputación, pero también afirmó que Google, Meta y varias empresas nuevas tenían separadamente un nivel de tecnología LLM comparable a ChatGPT en caso de que alguna de ellas deseara competir. [81]​ En febrero de 2023, Meta lanzó LLaMA, un LLM de 65 mil millones de parámetros. [82]

Character.ai es un chatbot de IA desarrollado por dos exingenieros de Google que puede hacerse pasar por personas famosas o personajes imaginarios. [83]

La corporación china Baidu lanzó en marzo de 2023 un servicio estilo ChatGPT llamado "Ernie Bot". El servicio se basa en un gran modelo de lenguaje desarrollado por Baidu en 2021. [84][85]

La empresa surcoreana de motores de búsqueda Naver anunció en febrero de 2023 que lanzaría un servicio estilo ChatGPT llamado "SearchGPT" en coreano en la primera mitad de 2023. [86]

La empresa de tecnología rusa Yandex anunció en febrero de 2023 que lanzaría un servicio estilo ChatGPT llamado "YaLM 2.0" en ruso antes de finales de 2023. [87]

Hugging Face ha lanzado una alternativa de código abierto a ChatGPT llamada HuggingChat, que permite a las personas interactuar con un asistente de chat de código abierto llamado Open Assistant. [88]​ El CEO de Hugging Face, Clem Delangue, tuiteó que cree que las alternativas de código abierto a ChatGPT son necesarias para la transparencia, la inclusión, la responsabilidad y la distribución del poder. [89]

Referencias

  1. a b c d e OpenAI (30 de noviembre de 2022). «ChatGPT: Optimizing Language Models for Dialogue». Consultado el 5 de diciembre de 2022. 
  2. Welle (www.dw.com), Deutsche. «ChatGPT: el bot viral y futuro de la IA que podría cambiarlo todo | DW | 09.12.2022». DW.COM. Consultado el 12 de diciembre de 2022. 
  3. «What is ChatGPT and why does it matter? Here's what you need to know». ZDNET (en inglés). Consultado el 18 de diciembre de 2022. 
  4. Escribano, Mario (6 de diciembre de 2022). «Esta inteligencia artificial está metiendo miedo, pero no es para tanto: esto es lo que hay detrás». elconfidencial.com. Consultado el 18 de diciembre de 2022. 
  5. Chat, Gpt (1 de febrero de 2023). «Регистрация ChatGPT в России». ChatGPT (en ru-RU). Consultado el 17 de febrero de 2023. 
  6. «ChatGPT frenzy sweeps China as firms scramble for homegrown options». CNBC (en inglés). Reuters. 10 de febrero de 2023. Consultado el 17 de febrero de 2023. «OpenAI or ChatGPT itself is not blocked by Chinese authorities but OpenAI does not allow users in mainland China, Hong Kong, Iran, Russia and parts of Africa to sign up». 
  7. Milmo, Dan (1 de abril de 2023). «Italy’s privacy watchdog bans ChatGPT over data breach concerns». The Guardian (en inglés británico). ISSN 0261-3077. Consultado el 11 de abril de 2023. 
  8. Knox, W. Bradley; Stone, Peter. Augmenting Reinforcement Learning with Human Feedback. University of Texas at Austin. Consultado el 5 de diciembre de 2022. 
  9. a b Vincent, James (8 de diciembre de 2022). «ChatGPT proves AI is finally mainstream — and things are only going to get weirder». The Verge. Consultado el 8 de diciembre de 2022. 
  10. Schulman, John; Wolski, Filip; Dhariwal, Prafulla; Radford, Alec; Klimov, Oleg (2017). «Proximal Policy Optimization Algorithms». arXiv:1707.06347  [cs.LG]. 
  11. van Heeswijk, Wouter (29 de noviembre de 2022). «Proximal Policy Optimization (PPO) Explained». Towards Data Science. Consultado el 5 de diciembre de 2022. 
  12. Edwards, Benj (5 de diciembre de 2022). «No Linux? No problem. Just get AI to hallucinate it for you». Ars Technica. Consultado el 5 de diciembre de 2022. 
  13. a b Roose, Kevin (5 de diciembre de 2022). «The Brilliance and Weirdness of ChatGPT». The New York Times. Consultado el 5 de diciembre de 2022. 
  14. Gao, Leo; Schulman; Hilton, Jacob (2022). «Scaling Laws for Reward Model Overoptimization». arXiv:2210.10760  [cs.LG]. 
  15. Murphy Kelly, Samantha (5 de diciembre de 2022). «This AI chatbot is dominating social media with its frighteningly good essays». CNN. Consultado el 5 de diciembre de 2022. 
  16. «General availability of Azure OpenAI Service expands access to large, advanced AI models with added enterprise benefits | Blog y actualizaciones de Azure | Microsoft Azure». azure.microsoft.com. Consultado el 17 de enero de 2023. 
  17. «Outage on chat.openai.com». status.openai.com (en inglés). Consultado el 21 de marzo de 2023. 
  18. «ChatGPT bug leaked users' conversation histories». BBC News (en inglés británico). 22 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  19. «OpenAI Confirms Leak of ChatGPT Conversation Histories». PCMag UK (en inglés británico). 22 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  20. «March 20 ChatGPT outage: Here’s what happened». openai.com (en inglés estadounidense). Consultado el 30 de marzo de 2023. 
  21. Perrigo, Billy (January 18, 2023). «Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic». The Times (en inglés). Archivado desde el original el January 19, 2023. Consultado el 7 de mayo de 2023. «One Sama worker tasked with reading and labeling text for OpenAI told TIME he suffered from recurring visions after reading a graphic description of a man having sex with a dog in the presence of a young child. "That was torture," he said.». 
  22. Vincent, James (December 1, 2022). «OpenAI's new chatbot can explain code and write sitcom scripts but is still easily tricked». The Verge. Archivado desde el original el January 17, 2023. Consultado el 7 de mayo de 2023. 
  23. Getahun, Hannah. «Breaking ChatGPT: The AI's alter ego DAN reveals why the internet is so drawn to making the chatbot violate its own rules». Business Insider (en inglés estadounidense). Archivado desde el original el March 5, 2023. Consultado el 7 de mayo de 2023. 
  24. Andrew Wilson. «How to Jailbreak ChatGPT to Unlock its Full Potential [May 2023]». Consultado el 7 de mayo de 2023. 
  25. Lock, Samantha (5 de diciembre de 2022). «What is AI chatbot phenomenon ChatGPT and could it replace humans?». The Guardian. Consultado el 5 de diciembre de 2022. 
  26. Hern, Alex (4 de diciembre de 2022). «AI bot ChatGPT stuns academics with essay-writing skills and usability». The Guardian. Consultado el 5 de diciembre de 2022. 
  27. Kantrowitz, Alex (2 de diciembre de 2022). «Finally, an A.I. Chatbot That Reliably Passes "the Nazi Test"». Slate. Consultado el 5 de diciembre de 2022. 
  28. Krugman, Paul (6 de diciembre de 2022). «Does ChatGPT Mean Robots Are Coming For the Skilled Jobs?». The New York Times. Consultado el 6 de diciembre de 2022. 
  29. Marche, Stephen (6 de diciembre de 2022). «The College Essay Is Dead». The Atlantic. Consultado el 8 de diciembre de 2022. 
  30. Herman, Daniel (9 de diciembre de 2022). «The End of High-School English». The Atlantic. Consultado el 12 de diciembre de 2022. 
  31. Pearl, Mike (3 de diciembre de 2022). «The ChatGPT chatbot from OpenAI is amazing, creative, and totally wrong». Mashable. Consultado el 5 de diciembre de 2022. 
  32. Vincent, James (5 de diciembre de 2022). «AI-generated answers temporarily banned on coding Q&A site Stack Overflow». The Verge. Consultado el 5 de diciembre de 2022. 
  33. Cowen, Tyler (6 de diciembre de 2022). «ChatGPT Could Make Democracy Even More Messy». Bloomberg News. Consultado el 6 de diciembre de 2022. 
  34. Sharma, Ax (6 de diciembre de 2022). «OpenAI's new ChatGPT bot: 10 dangerous things it's capable of». Bleeping Computer. Consultado el 6 de diciembre de 2022. 
  35. Pascual, Manuel G. (27 de diciembre de 2022). «ChatGPT, la inteligencia artificial de moda, permite que cualquiera pueda lanzar un ciberataque». El País. Consultado el 10 de enero de 2023. 
  36. Miguel Ors Villarejo (4 de febrero de 2023). «Por qué ChatGPT miente sistemáticamente y por qué eso debe ser motivo de tranquilidad». The Objective. Consultado el 13 de febrero de 2023. 
  37. Maidana, Roberto Adrián (30 de marzo de 2023). «Peligro IA-ChatGPT: por qué Elon Musk y científicos del mundo le temen a la inteligencia artificial». A24. Consultado el 14 de abril de 2023. 
  38. Pacho, Lorena (31 de marzo de 2023). «Italia bloquea el uso de ChatGPT por incumplir la normativa de protección de datos». El País. Consultado el 14 de abril de 2023. 
  39. «Italia bloqueó a ChatGPT y podría multar a OpenAI por un "error de principiante"». BAE Negocios. 31 de marzo de 2023. Consultado el 14 de abril de 2023. 
  40. Telemadrid (28 de abril de 2023). «ChatGPT vuelve a estar disponible en Italia». Telemadrid. Consultado el 29 de abril de 2023. 
  41. Nolan, Beatrice. «More than 200 books in Amazon's bookstore have ChatGPT listed as an author or coauthor». Business Insider (en inglés estadounidense). Consultado el 30 de marzo de 2023. 
  42. Bensinger, Greg (21 de febrero de 2023). «ChatGPT launches boom in AI-written e-books on Amazon». Reuters (en inglés). Consultado el 30 de marzo de 2023. 
  43. «ChatGPT sul Foglio: per 30 giorni piccoli testi scritti dall'IA sul nostro giornale». www.ilfoglio.it (en italiano). Consultado el 30 de marzo de 2023. 
  44. «Articoli artificiali? No | Il Foglio». web.archive.org. 22 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  45. «Più umani, grazie | Il Foglio». web.archive.org. 22 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  46. «Sfida per Siri e Alexa | Il Foglio». web.archive.org. 22 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  47. «La Inteligencia Artificial conquista la última frontera de las artes: el teatro». ELMUNDO. 17 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  48. Vincent, James (5 de enero de 2023). «Top AI conference bans use of ChatGPT and AI language tools to write academic papers». The Verge (en inglés estadounidense). Consultado el 25 de enero de 2023. 
  49. Herman, Daniel (9 de diciembre de 2022). «The End of High-School English». The Atlantic (en inglés). Consultado el 10 de enero de 2023. 
  50. Stokel-Walker, Chris (9 de diciembre de 2022). «AI bot ChatGPT writes smart essays — should professors worry?». Nature (en inglés). doi:10.1038/d41586-022-04397-7. Consultado el 10 de enero de 2023. 
  51. Bowman, Emma (19 de diciembre de 2022). «A new AI chatbot might do your homework for you. But it's still not an A+ student». NPR (en inglés). Consultado el 10 de enero de 2023. 
  52. Stern, Joanna. «ChatGPT Wrote My AP English Essay—and I Passed». WSJ (en inglés estadounidense). Consultado el 25 de enero de 2023. 
  53. Archive, View Author (26 de diciembre de 2022). «Students using ChatGPT to cheat, professor warns» (en inglés estadounidense). Consultado el 25 de enero de 2023. 
  54. «Professor catches student cheating with ChatGPT: ‘I feel abject terror’». New York Post (en inglés estadounidense). 26 de diciembre de 2022. Consultado el 10 de enero de 2023. 
  55. Tran, Tony Ho (4 de enero de 2023). «A College Kid Built an App That Sniffs Out Text Penned by AI». The Daily Beast (en inglés). Consultado el 25 de enero de 2023. 
  56. Tran, Tony Ho (4 de enero de 2023). «A College Kid Built an App That Sniffs Out Text Penned by AI». The Daily Beast (en inglés). Consultado el 10 de enero de 2023. 
  57. «NYC Bans Students and Teachers from Using ChatGPT». www.vice.com (en inglés). Consultado el 10 de enero de 2023. 
  58. «港大禁用ChatGPT等AI工具,为全港大学首例». m.thepaper.cn. Consultado el 30 de marzo de 2023. 
  59. «University of Hong Kong temporarily bans students from using ChatGPT». South China Morning Post (en inglés). 17 de febrero de 2023. Consultado el 30 de marzo de 2023. 
  60. The Lancet Digital Health (March 3, 2023). «ChatGPT: friend or foe?». The Lancet Digital Health (en inglés) 5 (3): e102. PMID 36754723. doi:10.1016/S2589-7500(23)00023-7. Archivado desde el original el February 16, 2023. Consultado el February 28, 2023. 
  61. a b DePeau-Wilson, Michael (January 19, 2023). «AI Passes U.S. Medical Licensing Exam». MedPage Today. Archivado desde el original el April 9, 2023. Consultado el 2 de mayo de 2023. 
  62. Kung, Tiffany H.; Cheatham, Morgan; Medenilla, Arielle; Sillos, Czarina; Leon, Lorie De; Elepaño, Camille; Madriaga, Maria; Aggabao, Rimel et al. (9 de febrero de 2023). «Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models». PLOS Digital Health (en inglés) 2 (2): e0000198. ISSN 2767-3170. PMC 9931230. PMID 36812645. doi:10.1371/journal.pdig.0000198. 
  63. «Expert reaction to study on ChatGPT almost passing the US Medical Licensing Exam». Science Media Centre. February 9, 2023. Archivado desde el original el April 24, 2023. Consultado el 2 de mayo de 2023. 
  64. Gilson, Aidan; Safranek, Conrad W.; Huang, Thomas; Socrates, Vimig; Chi, Ling; Taylor, Richard Andrew; Chartash, David (8 de febrero de 2023). «How Does ChatGPT Perform on the United States Medical Licensing Examination? The Implications of Large Language Models for Medical Education and Knowledge Assessment». JMIR Medical Education (en inglés) 9 (1): e45312. PMC 9947764. PMID 36753318. doi:10.2196/45312. Archivado desde el original el March 29, 2023. Consultado el 2 de mayo de 2023. 
  65. Abdel-Messih, Mary Sabry; Boulos, Maged N. Kamel (8 de marzo de 2023). «ChatGPT in Clinical Toxicology». JMIR Medical Education (en inglés) 9 (1): e46876. PMC 10034604. PMID 36867743. doi:10.2196/46876. Archivado desde el original el March 30, 2023. Consultado el 2 de mayo de 2023. 
  66. Haver, Hana L; Ambinder, Emily B; Bahl, Manisha; Oluyemi, Eniola T; Jeudy, Jean; Yi, Paul H (4 de abril de 2023). «Appropriateness of Breast Cancer Prevention and Screening Recommendations Provided by ChatGPT». Radiology (en inglés): 230424. ISSN 0033-8419. doi:10.1148/radiol.230424. 
  67. Kotz, Deborah (April 4, 2023). «UM School of Medicine Study Finds ChatGPT Helpful for Breast Cancer Screening Advice, With Certain Caveats». University of Maryland School of Medicine. Consultado el 5 de mayo de 2023. 
  68. Ayers, John W.; Poliak, Adam; Dredze, Mark; Leas, Eric C.; Zhu, Zechariah; Kelley, Jessica B.; Faix, Dennis J.; Goodman, Aaron M. et al. (28 de abril de 2023). «Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum». JAMA Internal Medicine (en inglés). ISSN 2168-6106. PMC 10148230. PMID 37115527. doi:10.1001/jamainternmed.2023.1838. Archivado desde el original el April 30, 2023. Consultado el 2 de mayo de 2023. 
  69. Fox, Andrea (4 de mayo de 2023). «Does ChatGPT really outshine doctors? Or just on social media?». Healthcare IT News (HIMSS Media). Consultado el 5 de mayo de 2023. 
  70. «The doctor is out, but it's OK. ChatGPT can answer your questions». Hub (Johns Hopkins University). April 28, 2023. 
  71. Ono, Mika (April 28, 2023). «Study Finds ChatGPT Outperforms Physicians in High-Quality, Empathetic Answers to Patient Questions». UC San Diego Today. Archivado desde el original el April 28, 2023. Consultado el April 28, 2023. 
  72. «ChatGPT Beats Doctors in Compassion and Quality of Advice to Patients». Neuroscience News. April 28, 2023. Archivado desde el original el 3 de mayo de 2023. Consultado el 2 de mayo de 2023. 
  73. Howard, Alex; Hope, William; Gerada, Alessandro (April 2023). «ChatGPT and antimicrobial advice: the end of the consulting infection doctor?». The Lancet Infectious Diseases 23 (4): 405-406. ISSN 1473-3099. PMID 36822213. doi:10.1016/s1473-3099(23)00113-5. Archivado desde el original el March 25, 2023. Consultado el 2 de mayo de 2023. 
  74. «Is There a Role for ChatGPT in Healthcare?». Physician's Weekly. April 27, 2023. Consultado el 5 de mayo de 2023. 
  75. Drake, Kimberly (April 6, 2023). «Rely on a Doctor, Not ChatGPT, for Medical Advice». HealthNews. Consultado el 5 de mayo de 2023. 
  76. Hughes, Stephen (April 27, 2023). «How good is ChatGPT at diagnosing disease? A doctor puts it through its paces». The Conversation. Consultado el 5 de mayo de 2023. 
  77. Cooban, Anna (5 de mayo de 2023). «ChatGPT can pick stocks better than your fund manager». CNN. Consultado el 5 de mayo de 2023. 
  78. «Pakistani judge uses ChatGPT to make court decision». Gulf News. April 13, 2023. Archivado desde el original el April 20, 2023. Consultado el April 20, 2023. 
  79. «AI revolution is here': Pakistani court takes help from ChatGPT to grant bail in rape case». Pakistan Observer. April 11, 2023. Archivado desde el original el April 20, 2023. Consultado el April 20, 2023. 
  80. Vincent, James (March 21, 2023). «Google opens early access to its ChatGPT rival Bard – here are our first impressions». The Verge. Archivado desde el original el March 21, 2023. Consultado el March 21, 2023. 
  81. Ray, Tiernan (January 23, 2023). «ChatGPT is 'not particularly innovative,' and 'nothing revolutionary', says Meta's chief AI scientist». ZDNET (en inglés). Archivado desde el original el February 17, 2023. Consultado el February 16, 2023. 
  82. «Introducing LLaMA: A foundational, 65-billion-parameter language model». ai.facebook.com (en inglés). Archivado desde el original el March 3, 2023. Consultado el March 3, 2023. 
  83. «Character.AI: A ChatGPT alternative that lets you talk to Elon Musk, Tony Stark in real time – TFN». January 24, 2023. Archivado desde el original el March 10, 2023. Consultado el March 10, 2023. 
  84. Huang, Raffaele (March 17, 2023). «Baidu's ChatGPT Rival Launches to Mixed Reviews». WSJ. Archivado desde el original el March 20, 2023. Consultado el March 19, 2023. 
  85. Chen, Caiwei (March 7, 2023). «China's ChatGPT Black Market Is Thriving». Wired UK. Archivado desde el original el March 19, 2023. Consultado el March 19, 2023. 
  86. He-rim, Jo (February 3, 2023). «Naver to introduce search GPT in first half of year». The Korea Herald. Archivado desde el original el February 12, 2023. Consultado el February 12, 2023. 
  87. «Yandex plans to develop alternative to ChatGPT neural network». Tass. February 1, 2023. Archivado desde el original el February 12, 2023. Consultado el February 12, 2023. 
  88. Goldman, Sharon (April 25, 2023). «Hugging Face launches open-source version of ChatGPT in bid to challenge dominance of closed-source models». venturebeat.com. Archivado desde el original el April 27, 2023. Consultado el 29 April 2023. 
  89. Mauricio B. Holguín (26 de abril de 2023). «Hugging Face introduces HuggingChat: A new open-source alternative to ChatGPT» [Hugging Face presenta HuggingChat: una nueva alternativa de código abierto a ChatGPT]. Consultado el 7 de mayo de 2023. 

Enlaces externos