Claude (chatbot)

De Wikipedia, la enciclopedia libre

Claude es una familia de grandes modelos lingüísticos desarrollada por Anthropic.[1]

Es producto de la investigación colaborativa con socios como Notion, Quora y DuckDuckGo. Su algoritmo está entrenado para ser funcional como asistente, al cual se le pueden hacer preguntas de forma similar a como se realizan con ChatGPT. Su entrenamiento permite la generación de texto como resultado a las preguntas que se planteen, de una manera muy similar a como lo harían los humanos; no obstante, es necesario tener en cuenta que al ser un algoritmo (software), sus respuestas corresponden a una construcción textual predictiva con base en una semántica lógica,[2]​ no al razonamiento de las preguntas que se realizan. Al igual que todos los algoritmos de inteligencia artificial, Claude carece de autoconciencia[3]​ e inteligencia general.[4][5]

Claude puede proporcionar resúmenes de temas concretos o crear historias, entre otras actividades, como:

  • Generar texto, traducir idiomas, escribir diferentes tipos de contenido creativo y responder preguntas de manera informativa.
  • Seguir instrucciones y completar las solicitudes de manera cuidadosa.
  • Utilizar su conocimiento para responder a las preguntas de una manera completa e informativa, incluso si son abiertas, desafiantes o extrañas.
  • Generar diferentes formatos de texto creativo de contenido de texto, como poemas, código, guiones, piezas musicales, correo electrónico, cartas, etc.

Versiones[editar]

Claude 3

Claude 3 se lanzó el 14 de marzo de 2024, con afirmaciones de haber establecido nuevos puntos de referencia en la industria a través de una amplia gama de tareas cognitivas. La familia Claude 3 incluye tres modelos de vanguardia en orden ascendente de capacidad: Haiku, Sonnet y Opus. La versión predeterminada de Claude 3 Opus tiene una ventana de contexto de 200,000 tokens, pero esta capacidad se está ampliando a 1 millón para casos de uso específicos.[6][7]

Claude 3 parece haber realizado un razonamiento metacognitivo, incluyendo la capacidad de darse cuenta de estar siendo probado artificialmente durante evaluaciones de aguja en un pajar.[8][9]

Características técnicas de Claude
Característica Descripción
Nombre Claude
Creador Anthropic
Tipo Asistente de inteligencia artificial[10]​ con capacidades limitadas
Año de inicio 14 de marzo de 2023[11]
Tecnologías Es un modelo de lenguaje entrenado con técnicas de aprendizaje automático (machine learning)[12]
Conocimientos No se informa sobre la cantidad de parámetros usados para su entrenamiento, pero se menciona que fueron usados millones de datos escritos y conversaciones.
Capacidades Puedo mantener conversaciones simples, responder a preguntas, proporcionar recomendaciones e información sobre ciertos temas, aunque con ciertas limitantes.
Propósito Asistir en ciertas actividades humanas para ahorrar tiempo y esfuerzo. Pero se advierte que las decisiones importantes siempre deben ser tomadas por personas
Limitaciones No posee inteligencia general[4]​ si se pretende igualar las capacidades humanas. Carece de autoconciencia[3]​, libre albedrío[13]​, empatía[14]​, intuición[15]​, creatividad[16]​ o juicio moral[17]​.
Plataforma Opera en plataforma web en su sitio oficial: https://claude.ai/

Antecedentes[editar]

Anthropic es una empresa de investigación que se centra en la construcción de sistemas de inteligencia artificial, fundada en 2021 por Dario Amodei y Daniela Amodei. La empresa ha recaudado más de 400 millones de dólares en fondos de inversores como Google, Andreessen Horowitz y Peter Thiel y cuenta con un equipo de más de 100 investigadores e ingenieros que trabajan en una variedad de problemas de seguridad de la inteligencia artificial. Actualmente su trabajo se centra en desarrollar nuevas técnicas para hacer que los sistemas de inteligencia artificial sean más confiables, interpretables y dirigibles, con la intención de garantizar que este tipo de tecnología se utilice de manera ética y no repercuta de manera negativa en la sociedad.[18]

Entre las investigaciones publicadas por la empresa se encuentran:

  • La interpretabilidad de los sistemas de aprendizaje automático
  • La seguridad de los sistemas de aprendizaje por refuerzo
  • La alineación de los sistemas de IA con los valores humanos

Large Language Model (LLM)[editar]

Es una vertiente de la inteligencia artificial que se enfoca en el procesamiento del lenguaje natural, se fundamenta en los principios del test de Turing (1950)[19]​ al intentar comprender el lenguaje humano y dar una respuesta con una estructura sintáctica similar al lenguaje humano. Turing con su juego de la imitación, logró sentar las bases para responder a su pregunta respecto a si ¿las máquinas pueden pensar?[20]​ Posterior a los estudios de Turing, McCarthy; Minsky; Rochester y Shannon (1955)[21]​ acuñaría el término de inteligencia artificial, el cual se dio a conocer en la conferencia de Dartmouth, que tuvo lugar en el verano de 1956 en la universidad Dartmouth College en el año 1956.

Este campo de desarrollo tecnológico ha sido muy prometedor, motivo por el que su investigación ha llevado a la creación de distintas tecnologías en el campo de la inteligencia artificial. De modo que en la actualidad, es posible hacer cuasi cualquier cosa con inteligencia artificial, lo que también ha despertado la preocupación de grupos sociales, preocupaciones que han movilizado a investigadores y académicos en busca de mostrar el posible impacto negativo de este tipo de tecnologías en diversos aspectos de la vida humana, entre los que destaca el sector laboral,[22]​ la manipulación social,[23]​ así como en el periodismo;[24][25]​ por mencionar algunos.

Es importante considerar que el uso de la inteligencia artificial de manera desinformada, sin considerar leyes morales y principios éticos, puede tener impactos negativos en la sociedad, por lo que debemos tener cuidado con el uso de estas aplicaciones, ya que en concreto, hablando de algoritmos de generativos de texto, difundir los contenidos generados sin el razonamiento humano, y presentarlos como información veraz, puede llevarnos a un estado de posverdad,[26]​ de desinformación que podría sesgar las decisiones personales a consecuencia de la exposición a información incorrecta, parcial o malintencionada.

Véase también[editar]

Referencias[editar]

  1. «Claude 2 AI: qué es y cómo funciona esta inteligencia artificial». PlayGround. 16 de abril de 2024. Consultado el 21 de abril de 2024. 
  2. «Semántica lógica». www.filosofia.org. Consultado el 8 de junio de 2023. 
  3. a b Rodríguez, José Antonio Jiménez (1 de octubre de 2005). «Autoconciencia». Escritos de Psicología - Psychological Writings 1 (7): 44-58. ISSN 1989-3809. doi:10.24310/espsiescpsi.vi7.13398. Consultado el 8 de junio de 2023. 
  4. a b Rodrigues, Fabiano de Abreu; Wagner, Roselene Espírito Santo; Barth, Natália (11 de marzo de 2022). «Inteligencia general». Ciencia Latina Revista Científica Multidisciplinar 6 (1): 4990-4998. ISSN 2707-2215. doi:10.37811/cl_rcm.v6i1.1854. Consultado el 8 de junio de 2023. 
  5. «Inteligencia General: ¿qué es y cómo ha evolucionado?». psicologiaymente.com. 14 de noviembre de 2019. Consultado el 8 de junio de 2023. 
  6. «Introducing the next generation of Claude». www.anthropic.com (en inglés). Consultado el 12 de abril de 2024. 
  7. «Claude 3 overtakes GPT-4 in the duel of the AI bots. Here's how to get in on the action». ZDNET (en inglés). Consultado el 12 de abril de 2024. 
  8. Edwards, Benj (5 de marzo de 2024). «Anthropic’s Claude 3 causes stir by seeming to realize when it was being tested». Ars Technica (en inglés estadounidense). Consultado el 12 de abril de 2024. 
  9. «Claude AI Review: The Most Conversational AI Engine». CNET (en inglés). Consultado el 12 de abril de 2024. 
  10. Mata, Ainoa Maestre (24 de mayo de 2023). «▷ Descubre cómo un asistente de inteligencia artificial puede hacerte la vida más fácil | 2023». Inteligencia 10. Consultado el 8 de junio de 2023. 
  11. «Introducing Claude». Anthropic (en inglés). Consultado el 8 de junio de 2023. 
  12. BBVA (8 de noviembre de 2019). «Te contamos qué es el 'machine learning' y cómo funciona». BBVA NOTICIAS. Consultado el 8 de junio de 2023. 
  13. Moya Espí, Carlos (2017). El libre albedrío: un estudio filosófico. Cátedra. ISBN 978-84-376-3714-3. Consultado el 8 de junio de 2023. 
  14. «Qué es la Empatía (y su significado)». Significados. Consultado el 8 de junio de 2023. 
  15. «Intuición: concepto, cómo desarrollarla y características». https://humanidades.com/. Consultado el 8 de junio de 2023. 
  16. «La creatividad: concepto, técnicas y aplicaciones». programas.cuaed.unam.mx. Consultado el 8 de junio de 2023. 
  17. Beltran Llera, Jsús (1978). «El Juicio Moral». Revista Española de Pedagogía 36 (141). Consultado el 08/06/2023. 
  18. Cao, Sissi (9 de marzo de 2023). «Anthropic, a ChatGPT Rival Founded by Daniela and Dario Amodei, Is Worth $4 Billion». Observer (en inglés estadounidense). Consultado el 10 de junio de 2023. 
  19. Turing, Alan M. (1950). «Computing Machinery and Intelligence». Mind 59 (October): 433-60. doi:10.1093/mind/lix.236.433. Consultado el 8 de junio de 2023. 
  20. «COMPUTING MACHINERY AND INTELLIGENCE». academic.oup.com. Consultado el 8 de junio de 2023. 
  21. McCarthy, J.; Minsky, M. L.; Rochester, N.; Shannon, C. E. (1055). «A PROPOSAL FOR THE DARTMOUTH SUMMER RESEARCH PROJECT ON ARTIFICIAL INTELLIGENCE». Stanford. Consultado el 08/06/2023. 
  22. «Stanford CRFM». crfm.stanford.edu. Consultado el 8 de junio de 2023. 
  23. Vercelli, Ariel (2018-09). La (des)protección de los datos personales: análisis del caso Facebook Inc. - Cambridge Analytica. Consultado el 8 de junio de 2023. 
  24. «TENDENCIAS E IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN COMUNICACIÓN: COBOTIZACIÓN, GIG ECONOMY, CO-CREACIÓN Y GOBERNANZA». revistas.usal.es. Consultado el 8 de junio de 2023. 
  25. «Inteligencia artificial y periodismo: Revisión sistemática de la producción científica en Web of Science y Scopus (2008-2019) por Luis Mauricio Calvo Rubio y María José Ufarte Ruiz. – Grupo de investigación Comunicación Pública: Poder, Derecho y Mensaje (COMPUBLIC)». 16 de abril de 2021. Consultado el 8 de junio de 2023. 
  26. Sabín, Carlos (28 de febrero de 2020). Contra la posverdad. Sociedad Española de Bioquímica y Biología Molecular. Consultado el 8 de junio de 2023. 

Enlaces externos[editar]