Regulación de la inteligencia artificial

De Wikipedia, la enciclopedia libre
Cronología de estrategias, planes de acción y documentos de políticas que definen enfoques nacionales, regionales e internacionales para la IA.[1]

La regulación de la inteligencia artificial es el desarrollo de políticas y leyes del sector público para promover y regular la inteligencia artificial (IA); está, por lo tanto, relacionada con la regulación más amplia de los algoritmos.[2][3][4][5]​ El panorama regulatorio y de políticas para la IA es un tema emergente en jurisdicciones a nivel mundial, los más relevantes, en la Unión Europea y en los Estados Unidos, también en organismos internacionales como el IEEE, la OCDE y otros. Desde 2016, se han publicado una serie pautas de ética de IA para mantener el control social sobre la tecnología.[6]

La regulación se considera necesaria tanto para fomentar la IA como para gestionar los riesgos asociados. Además de la regulación, las organizaciones que implementan IA deben desempeñar un papel central en la creación e implementación de IA confiable de acuerdo con los principios de IA confiable,[7]​ y asumir la responsabilidad para mitigar los riesgos.[8]​ La regulación de la IA a través de mecanismos como las juntas de revisión también puede verse como un medio social para abordar el problema del control de la IA.[9][10]

Trasfondo[editar]

En 2017, Elon Musk pidió la regulación del desarrollo de la IA.[11]​ Según la National Public Radio, el CEO de Tesla "claramente no estaba emocionado" por abogar por el escrutinio del gobierno que podría afectar su propia industria, pero creía que los riesgos de pasar completamente sin supervisión eran demasiado altos: "Normalmente, la forma en que se establecen las regulaciones es cuando suceden un montón de cosas malas, hay una protesta pública y, después de muchos años, se establece una agencia reguladora para regular esa industria. Se tarda una eternidad. Eso, en el pasado, ha sido malo, pero no algo que represente un riesgo fundamental para la existencia de la civilización".[11]​ En respuesta, algunos políticos expresaron su escepticismo sobre la sensatez de regular una tecnología que aún está en desarrollo.[12]​ En respuesta tanto a Musk como a las propuestas de febrero de 2017 de los legisladores de la Unión Europea para regular la IA y la robótica, el CEO de Intel, Brian Krzanich, argumentó que la IA está en su infancia y que es demasiado pronto para regular la tecnología.[13]​ En lugar de tratar de regular la tecnología en sí, algunos académicos sugirieron desarrollar normas comunes que incluyan requisitos para la prueba y la transparencia de los algoritmos, posiblemente en combinación con algún tipo de garantía.[14]

Perspectivas[editar]

La regulación de las inteligencias artificiales es el desarrollo de políticas y leyes del sector público para promover y regular la IA.[15]​ La regulación se considera generalmente necesaria tanto para fomentar la IA como para gestionar los riesgos asociados.[16][17][18]​ Las consideraciones de la política y la administración pública generalmente se centran en las implicaciones técnicas y económicas y en los sistemas de IA confiables y centrados en el ser humano,[19]​ aunque también se considera la regulación de las superinteligencias artificiales.[20]​ El enfoque básico de la regulación se centra en los riesgos y sesgos de la tecnología subyacente de la IA, es decir, los algoritmos de aprendizaje automático, a nivel de los datos de entrada, las pruebas de algoritmos y el modelo de decisión, así como si las explicaciones de los sesgos en el código pueden ser comprensible para los posibles destinatarios de la tecnología y técnicamente factible de transmitir para los productores.[21]

Ha habido propuestas tanto de leyes duras como de leyes blandas para regular la IA.[22]​ Algunos académicos del derecho han señalado que los enfoques de leyes duras para la regulación de la IA tienen desafíos sustanciales.[23][24]​ Entre los desafíos se cita que la tecnología de IA está evolucionando rápidamente, lo que lleva a un "problema de ritmo" en el que las leyes y regulaciones tradicionales a menudo no pueden mantenerse al día con las aplicaciones emergentes y sus riesgos y beneficios asociados.[23][24]​ Algunos académicos del derecho han señalado que los enfoques de leyes duras para la regulación de la IA tienen desafíos sustanciales.[23][24]​ De manera similar, la diversidad de aplicaciones de IA desafía a las agencias reguladoras existentes, que a menudo tienen un alcance jurisdiccional limitado.[23]​ Como alternativa, algunos académicos del derecho argumentan que los enfoques de leyes blandas para la regulación de la IA son prometedores porque estas leyes se pueden adaptar de manera más flexible para satisfacer las necesidades de la tecnología de IA emergente y en evolución, y las aplicaciones incipientes.[23][24]​ Sin embargo, los enfoques de derecho indicativo a menudo carecen de un potencial de aplicación sustancial.[23][25]

Cason Schmit, Megan Doerr y Jennifer Wagner propusieron la creación de un regulador cuasi-gubernamental aprovechando los derechos de propiedad intelectual (es decir, licencias de copyleft) en ciertos objetos de IA (es decir, modelos de IA y conjuntos de datos de entrenamiento) y delegando los derechos de cumplimiento a una entidad encargada de ello.[26]​ Argumentan que la IA se puede licenciar bajo términos que requieren el cumplimiento de prácticas éticas y códigos de conducta específicos (por ejemplo, principios de derecho indicativo).[26]

La regulación de la IA podría derivar de principios básicos. Una metarevisión del Berkman Klein Center for Internet & Society de 2020 de los conjuntos de principios existentes, como los Principios de Asilomar[27]​ y los Principios de Beijing[28]​, identificó ocho de estos principios básicos: privacidad, responsabilidad, seguridad, transparencia y explicabilidad, equidad y no discriminación, control humano de la tecnología, responsabilidad profesional y respeto por los valores humanos.[29]​ Las leyes y reglamentos de IA se han dividido en tres temas principales, a saber, la gobernanza de los sistemas de inteligencia autónomos, la responsabilidad y la rendición de cuentas de los sistemas, y cuestiones de privacidad y seguridad.[30]​ Un enfoque de administración pública ve una relación entre la ley y la regulación de la IA, la ética de la IA y la 'sociedad de la IA', definida como la sustitución y transformación de la fuerza laboral, la aceptación social y la confianza en la IA, y la transformación de la interacción entre humanos y máquinas.[31]​ Se considera necesario el desarrollo de estrategias del sector público para la gestión y regulación de la IA a nivel local, nacional[32]​ e internacional[33]​ y en una variedad de campos, desde la gestión del servicio público[34]​ y la rendición de cuentas[35]​ hasta aplicación de la ley,[33][36]​ atención médica (especialmente el concepto de Garantía Humana),[37][38][39][40][41]​ el sector financiero,[32]​ robótica,[42][43]​ vehículos autónomos,[42]​ las fuerzas armadas[44]​ y la seguridad nacional,[45]​ y el derecho internacional.[46][47]

Henry Kissinger, Eric Schmidt y Daniel Huttenlocher publicaron una declaración conjunta en noviembre de 2021 titulada "Ser humano en la era de la IA", en la que pedían una comisión gubernamental para regular la IA.[48]

Como respuesta al problema de control de la IA[editar]

La regulación de la IA puede verse como un medio social positivo para gestionar el problema del control de la IA, es decir, la necesidad de asegurar una IA beneficiosa a largo plazo, mientras que otras respuestas sociales, como no hacer nada o prohibir, se consideran poco prácticas, y enfoques como mejorar la seguridad humana. Las capacidades a través de técnicas de transhumanismo como las interfaces cerebro-computadora se consideran potencialmente complementarias.[49][50]​ La regulación de la investigación en inteligencia artificial general (AGI) se centra en el papel de los comités de revisión, desde universidades o corporaciones hasta niveles internacionales, y en fomentar la investigación en IA segura,[50]​ junto con la posibilidad de un progreso intelectual diferencial (priorizando la reducción de riesgos estrategias sobre estrategias de asunción de riesgos en el desarrollo de IA) o llevar a cabo una vigilancia masiva internacional para llevar a cabo el control de armas AGI.[49]​ Por ejemplo, la 'AGI Nanny' es una estrategia propuesta, potencialmente bajo el control de la humanidad, para prevenir la creación de una superinteligencia peligrosa, así como para abordar otras amenazas importantes para el bienestar humano, como la subversión del sistema financiero global., hasta que se pueda crear con seguridad una verdadera superinteligencia. Implica la creación de un sistema AGI más inteligente que el humano, pero no superinteligente, conectado a una gran red de vigilancia, con el objetivo de monitorear a la humanidad y protegerla del peligro".[49]​ La regulación de AGI conscientes y éticamente conscientes se enfoca en integrarlos con la sociedad humana existente y puede dividirse en consideraciones de su estatus legal y de sus derechos morales.[49]​ La regulación de la IA se ha visto como restrictiva, con el riesgo de prevenir el desarrollo de AGI.[51]

Orientación mundial[editar]

El desarrollo de una junta de gobierno global para regular el desarrollo de la IA se sugirió al menos ya en 2017.[52]​ En diciembre de 2018, Canadá y Francia anunciaron planes para un Panel Internacional sobre Inteligencia Artificial respaldado por el G7, inspirado en el Panel Internacional sobre Cambio Climático, para estudiar los efectos globales de la IA en las personas y las economías y para dirigir el desarrollo de la IA.[53]​ En 2019, el Panel pasó a llamarse Global Partnership on AI.[54][55]

La Alianza Global sobre Inteligencia Artificial se lanzó en junio de 2020, indicando la necesidad de que la IA se desarrolle de acuerdo con los derechos humanos y los valores democráticos, para garantizar la confianza del público en la tecnología, como se describe en los Principios de la OCDE sobre Inteligencia Artificial (2019).[56]​ Los miembros fundadores de la Asociación Global sobre Inteligencia Artificial son Australia, Canadá, la Unión Europea, Francia, Alemania, India, Italia, Japón, Rep. Corea, México, Nueva Zelanda, Singapur, Eslovenia, Estados Unidos y Reino Unido. La Secretaría de la GPAI está alojada en la OCDE en París, Francia. El mandato de GPAI cubre cuatro temas, dos de los cuales cuentan con el apoyo del Centro Internacional de Expertos en Montreal para el Avance de la Inteligencia Artificial, a saber, IA responsable y gobernanza de datos. Un centro de excelencia correspondiente en París, aún por identificar, apoyará los otros dos temas sobre el futuro del trabajo y la innovación y la comercialización. GPAI también investigará cómo se puede aprovechar la IA para responder a la pandemia de Covid-19.[56]

Las Recomendaciones de la OCDE sobre IA[57]​ se adoptaron en mayo de 2019 y los Principios de IA del G20 en junio de 2019.[58][59][60]​ En septiembre de 2019, el Foro Económico Mundial emitió diez 'Directrices de contratación pública de AI'.[61]​ En febrero de 2020, la Unión Europea publicó su borrador de documento de estrategia para promover y regular la IA.[62]

En las Naciones Unidas (ONU), varias entidades han comenzado a promover y discutir aspectos de la regulación y política de IA, incluido el Centro UNICRI para IA y Robótica.[63]​ En asociación con Interpol, el Centro de UNICRI publicó el informe AI and Robotics for Law Enforcement en abril de 2019[64]​ y el informe de seguimiento Towards Responsible AI Innovation en mayo de 2020.[65]​ En la 40.ª sesión científica de la UNESCO en noviembre de 2019, la organización inició un proceso de dos años para lograr un "instrumento de establecimiento de estándares globales sobre la ética de la inteligencia artificial". En la búsqueda de este objetivo, se llevaron a cabo foros y conferencias sobre IA para recopilar las opiniones de las partes interesadas. En septiembre de 2020 se emitió un proyecto de texto de una Recomendación sobre la ética de la IA del Grupo de Expertos Ad Hoc de la UNESCO que incluía un llamado a llenar los vacíos legislativos.[66]​ La UNESCO presentó el instrumento internacional sobre la ética de la IA para su adopción en su Conferencia General en noviembre de 2021;[67]​ esto fue adoptado posteriormente.[68]​ Si bien la ONU está progresando en la gestión global de la IA, su capacidad institucional y legal para gestionar el riesgo existencial de la AGI es más limitada.[69]

Una iniciativa de la Unión Internacional de Telecomunicaciones (UIT) en asociación con 40 agencias hermanas de la ONU, AI for Good es una plataforma global que tiene como objetivo identificar aplicaciones prácticas de IA para avanzar en los Objetivos de Desarrollo Sostenible de las Naciones Unidas y escalar esas soluciones para el impacto global. Es una plataforma de las Naciones Unidas global e inclusiva orientada a la acción que fomenta el desarrollo de la IA para impactar positivamente en la salud, el clima, el género, la prosperidad inclusiva, la infraestructura sostenible y otras prioridades de desarrollo global.[70]

Investigaciones recientes han indicado que los países también comenzarán a utilizar la inteligencia artificial como herramienta para la ciberdefensa nacional[71]​. La IA es un factor nuevo en la industria de las armas cibernéticas, ya que puede utilizarse con fines de defensa. Por lo tanto, los académicos instan a que las naciones establezcan regulaciones para el uso de la IA, de manera similar a como existen regulaciones para otras industrias militares.[72]

Regulación regional y nacional[editar]

El panorama regulatorio y de políticas para la IA es emergente en las jurisdicciones regionales y nacionales y a nivel supranacional, como por ejemplo, en la Unión Europea.[73]​Desde principios de 2016, muchas autoridades nacionales, regionales e internacionales han comenzado a adoptar estrategias, planes de acción y documentos de política sobre IA.[74][75]​ Estos documentos cubren una amplia gama de temas, como la regulación y la gobernanza, así como la estrategia industrial, la investigación, el talento y la infraestructura.[76][77]

Canadá[editar]

La Estrategia pancanadiense de inteligencia artificial (2017) está respaldada por fondos federales de 125 millones de dólares canadienses con el objetivo de aumentar el número de investigadores destacados de IA y graduados calificados en Canadá, estableciendo nodos de excelencia científica en tres centros de IA, desarrollando ' liderazgo de pensamiento global' sobre las implicaciones económicas, éticas, políticas y legales de los avances de la IA y el apoyo a una comunidad de investigación nacional que trabaja en la IA.[78]​ El Programa de Cátedras CIFAR AI de Canadá es la piedra angular de la estrategia. Se beneficia de una financiación de 86,5 millones de dólares canadienses durante cinco años para atraer y retener a investigadores de IA de renombre mundial.[78]​ El gobierno federal nombró un Consejo Asesor sobre IA en mayo de 2019 con el objetivo de examinar cómo aprovechar las fortalezas de Canadá para garantizar que los avances en IA reflejen los valores canadienses, como los derechos humanos, la transparencia y la apertura. El Consejo Asesor sobre IA ha establecido un grupo de trabajo sobre la extracción de valor comercial de la IA y el análisis de datos de propiedad canadiense.[78]​ En 2020, el gobierno federal y el gobierno de Quebec anunciaron la apertura del Centro Internacional de Experiencia en Montreal para el Avance de la Inteligencia Artificial, que promoverá la causa del desarrollo responsable de la IA.[78]​ En 2022, el gobierno federal canadiense presentó un proyecto de ley para la Ley de datos e inteligencia artificial.[79]​ En noviembre de 2022, Canadá presentó la Ley de Implementación de la Carta Digital (Proyecto de Ley C-27), que propone tres leyes que se han descrito como un paquete holístico de legislación para la confianza y la privacidad: la Ley de Protección de la Privacidad del Consumidor, la Ley de Protección de Datos e Información Personal. Ley del Tribunal y la Ley de Inteligencia Artificial y Datos (AIDA).

China[editar]

La regulación de la IA en China se rige principalmente por el "Plan de desarrollo de inteligencia artificial de próxima generación" del Consejo de Estado de la República Popular China del 8 de julio de 2017 (Documento del Consejo de Estado No. 35), en el que el Comité Central de la El Partido Comunista Chino y el Consejo de Estado de la República Popular China instaron a los órganos de gobierno de China a promover el desarrollo de la IA hasta 2030. La regulación de las cuestiones de apoyo ético y legal para el desarrollo de la IA se está acelerando, y la política garantiza el control estatal de las empresas chinas y de los datos valiosos, incluido el almacenamiento de datos sobre los usuarios chinos dentro del país y el uso obligatorio de los datos nacionales de la República Popular China. estándares para la IA, incluidos los grandes datos, la computación en la nube y el software industrial.[80][81][82]​ En 2021, China publicó pautas éticas para el uso de IA en China que establecen que los investigadores deben asegurarse de que la IA cumpla con los valores humanos compartidos, siempre esté bajo control humano y no ponga en peligro la seguridad pública.[83]

Consejo de Europa[editar]

El Consejo de Europa (CoE) es una organización internacional que promueve la democracia de los derechos humanos y el estado de derecho y está compuesto por 47 Estados miembros, incluidos los 29 signatarios de la Declaración de cooperación en inteligencia artificial de 2018 de la Unión Europea. El CoE ha creado un espacio legal común en el que los miembros tienen la obligación legal de garantizar los derechos establecidos en el Convenio Europeo de Derechos Humanos. Específicamente en relación con la IA, "el objetivo del Consejo de Europa es identificar áreas de intersección entre la IA y nuestros estándares sobre derechos humanos, democracia y estado de derecho, y desarrollar soluciones relevantes para el establecimiento de estándares o el desarrollo de capacidades". La gran cantidad de documentos relevantes identificados por el CoE incluyen directrices, estatutos, documentos, informes y estrategias.[84]​ Los organismos autores de estos documentos de regulación de IA no se limitan a un sector de la sociedad e incluyen organizaciones, empresas, organismos y estados-nación.[85]

Unión Europea[editar]

La mayoría de los Estados de la Unión Europea tienen sus propias estrategias nacionales para regular la IA, pero estas son en gran medida convergentes.[86]​ La Unión Europea se guía por una Estrategia Europea sobre Inteligencia Artificial,[87]​ apoyada por un Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial.[88][89]​ En abril de 2019, la Comisión Europea publicó sus Directrices éticas para la inteligencia artificial (IA) confiable,[90][91]​ seguidas de su Política y recomendaciones de inversión para la inteligencia artificial confiable en junio de 2019.[92]​ El Grupo de expertos de alto nivel sobre inteligencia artificial de la Comisión lleva a cabo trabajos sobre IA confiable, y la Comisión ha publicado informes sobre los aspectos de seguridad y responsabilidad de la IA y sobre la ética de los vehículos automatizados. En 2020, la Comisión buscó opiniones sobre una propuesta de legislación específica de IA, y ese proceso está en curso.[86]

El 2 de febrero de 2020, la Comisión Europea publicó su Libro Blanco sobre Inteligencia Artificial - Un enfoque europeo hacia la excelencia y la confianza.[93][94][95][96]​ El Libro Blanco consta de dos bloques de construcción principales, un 'ecosistema de excelencia' y un 'ecosistema de confianza'. Este último describe el enfoque de la UE para un marco regulatorio para la IA. En su enfoque propuesto, la Comisión diferencia entre aplicaciones de IA de "alto riesgo" y "no alto riesgo". Solo el primero debería estar en el ámbito de un futuro marco regulatorio de la UE. En principio, si este sería el caso podría determinarse mediante dos criterios acumulativos, relativos a los sectores críticos y el uso crítico. Se consideran los siguientes requisitos clave para aplicaciones de IA de alto riesgo: requisitos para datos de entrenamiento; datos y mantenimiento de registros; deberes informativos; requisitos de robustez y precisión; supervisión humana; y requisitos específicos para aplicaciones específicas de IA, como las que se utilizan con fines de identificación biométrica remota. Las aplicaciones de IA que no califiquen como de "alto riesgo" podrían regirse por un esquema de etiquetado voluntario. En lo que respecta al cumplimiento y la aplicación, la Comisión considera evaluaciones de conformidad previas que podrían incluir "procedimientos de prueba, inspección o certificación" y/o "comprobaciones de los algoritmos y de los conjuntos de datos utilizados en la fase de desarrollo". Una estructura de gobernanza europea sobre IA en forma de un marco para la cooperación de las autoridades nacionales competentes podría facilitar la implementación del marco regulatorio.[93][97]​ Un borrador de enero de 2021 se filtró en línea el 14 de abril de 2021,[98]​ antes de que la Comisión finalmente presentara su "Propuesta de Reglamento oficial por el que se establecen normas armonizadas sobre inteligencia artificial (Ley de Inteligencia Artificial)" una semana después.[99]​ Poco después, se propuso formalmente la Ley de Inteligencia Artificial.[100]​ Esto incluye un ajuste fino del enfoque basado en el riesgo de 2020. La propuesta ha sido severamente criticada en el debate público. Los académicos están preocupados por los diversos elementos poco claros de la propuesta, como la definición amplia de lo que constituye la IA, y temen implicaciones legales no deseadas, especialmente para grupos vulnerables como pacientes y migrantes.[101][102]

Los observadores han expresado su preocupación por la multiplicación de propuestas legislativas bajo la Comisión Von der Leyen. La velocidad de las iniciativas legislativas está parcialmente impulsada por las ambiciones políticas de la UE y podría poner en riesgo los derechos digitales de los ciudadanos europeos, incluidos los derechos a la privacidad,[103]​ especialmente frente a garantías inciertas de protección de datos a través de la ciberseguridad.[89]​ Entre los principios rectores declarados en la variedad de propuestas legislativas en el área de IA bajo la Comisión von der Leyen se encuentran los objetivos de autonomía estratégica[104]​ y el concepto de soberanía digital.[105]

Nueva Ley de Inteligencia Artificial de la Unión Europea: Un hito histórico hacia la regulación global

El 13 de diciembre de 2023, la Presidencia del Consejo y los negociadores del Parlamento Europeo alcanzaron un acuerdo provisional sobre el "Reglamento de Inteligencia Artificial"[106]​, marcando un hito histórico en la regulación de la IA a nivel mundial. Este acuerdo tiene como objetivo garantizar la seguridad y el respeto de los derechos fundamentales en el desarrollo y uso de sistemas de inteligencia artificial en la Unión Europea, al tiempo que impulsa la inversión y la innovación en este ámbito crucial.

Principales Elementos del Acuerdo Provisional:

  1. Definiciones y Ámbito de Aplicación:
    • Se establecen criterios claros para distinguir la IA de sistemas de software más simples, armonizando la definición con la propuesta de la OCDE.
    • El reglamento no se aplica fuera del ámbito de la UE y no afecta las competencias de los Estados miembros en seguridad nacional.
    • Exclusiones para sistemas militares, investigación e innovación, y uso no profesional de la IA.
  2. Clasificación de Sistemas de IA y Prácticas Prohibidas:
    • Se introducen criterios de clasificación de sistemas de alto riesgo, con obligaciones proporcionales.
    • Prohibiciones incluyen la manipulación cognitiva, rastreo indiscriminado de imágenes faciales, reconocimiento de emociones en entornos laborales y educativos, puntuación ciudadana, y categorización biométrica sensible.
  3. Excepciones en el Ámbito Policial:
    • Se permiten excepciones limitadas para el uso policial de IA, con salvaguardias para proteger derechos fundamentales.
    • Se especifica el uso de identificación biométrica remota en tiempo real en espacios públicos bajo ciertas condiciones.
  4. Gobernanza:
    • Se establece una Oficina de IA en la Comisión para supervisar modelos de IA avanzados y garantizar cumplimiento a escala de la UE.
    • Se crea un Panel Científico de Expertos independientes y se mantiene el Comité de IA con representantes de Estados miembros.
  5. Sanciones:
    • Multas por infracciones se fijan como un porcentaje del volumen de negocios anual o un importe predeterminado.
    • Se aplican límites proporcionados a multas para pymes y empresas emergentes.
  6. Transparencia y Protección de Derechos Fundamentales:
    • Se exige una evaluación del impacto en derechos fundamentales antes de lanzar sistemas de alto riesgo.
    • Se refuerza la transparencia, incluyendo el registro de sistemas de IA de alto riesgo y obligaciones de informar en sistemas de reconocimiento de emociones.
  7. Medidas de Apoyo a la Innovación:
    • Se introducen disposiciones para crear un marco favorable a la innovación, permitiendo pruebas en condiciones controladas y reales.
    • Se alivian cargas administrativas para empresas más pequeñas.
  8. Entrada en Vigor:
    • El reglamento se aplicará dos años después de su entrada en vigor, con excepciones para disposiciones específicas.

Próximas Etapas: Tras el acuerdo provisional, se llevarán a cabo trabajos técnicos para finalizar el texto del reglamento. Posteriormente, se someterá a refrendo de los Estados miembros antes de su adopción formal por los colegisladores. Este reglamento, siendo la primera propuesta legislativa de este tipo en el mundo, puede establecer un referente global para la regulación de la IA.

Alemania[editar]

En noviembre de 2020,[107]DIN, DKE y el Ministerio Federal de Asuntos Económicos y Energía de Alemania publicaron la primera edición de la "Hoja de ruta de normalización alemana para la inteligencia artificial" (NRM KI) y la presentaron al público en la Cumbre Digital de la Gobierno Federal de Alemania.[108]​ NRM KI describe los requisitos para futuras regulaciones y estándares en el contexto de la IA. La implementación de las recomendaciones para la acción tiene como objetivo ayudar a fortalecer la economía y la ciencia alemanas en la competencia internacional en el campo de la inteligencia artificial y crear condiciones favorables a la innovación para esta tecnología emergente. La primera edición es un documento de 200 páginas escrito por 300 expertos. La segunda edición del NRM KI se publicó coincidiendo con la Cumbre Digital del gobierno alemán el 9 de diciembre de 2022.[109]​ DIN coordinó a más de 570 expertos participantes de una amplia gama de campos de la ciencia, la industria, la sociedad civil y el sector público. La segunda edición es un documento de 450 páginas.

Por un lado, NRM AI cubre los temas de enfoque en términos de aplicaciones (por ejemplo, medicina, movilidad, energía y medio ambiente, servicios financieros, automatización industrial) y cuestiones fundamentales (por ejemplo, clasificación de IA, seguridad, certificabilidad, sistemas sociotécnicos, ética).[110]​ Por otro lado, proporciona una visión general de los términos centrales en el campo de la IA y su entorno a través de una amplia gama de grupos de interés y fuentes de información. En total, el documento cubre 116 necesidades de estandarización y proporciona seis recomendaciones centrales para la acción.[111]

Reino Unido[editar]

El Reino Unido apoyó la aplicación y el desarrollo de la IA en los negocios a través de la Estrategia de Economía Digital 2015-2018, presentada a principios de 2015 por Innovate UK como parte de la Estrategia Digital del Reino Unido.[112]​ En el sector público, el Departamento de Digital, Cultura, Medios y Deportes ha brindado orientación sobre ética de datos[113]​ y el Instituto Alan Turing sobre diseño e implementación responsables de sistemas de IA.[114]​ En términos de seguridad cibernética, en 2020 el Centro Nacional de Seguridad Cibernética ha emitido una guía sobre 'Herramientas de seguridad inteligentes'.[115][116]​ Al año siguiente, el Reino Unido publicó su Estrategia Nacional de IA de 10 años,[117]​ que describe acciones para evaluar los riesgos de IA a largo plazo, incluidos los riesgos catastróficos relacionados con AGI.[118]

Estados Unidos[editar]

Las discusiones sobre la regulación de la IA en los Estados Unidos han incluido temas como la oportunidad de regular la IA, la naturaleza del marco regulatorio federal para gobernar y promover la IA, incluyendo qué agencia debe liderar, los poderes regulatorios y de gobierno de esa agencia, y cómo para actualizar las regulaciones frente a la tecnología que cambia rápidamente, así como las funciones de los gobiernos estatales y los tribunales.[119]

Ya en 2016, la administración Obama había comenzado a centrarse en los riesgos y las regulaciones de la inteligencia artificial. En un informe titulado Preparing For the Future of Artificial Intelligence , el Consejo Nacional de Ciencia y Tecnología sentó un precedente para permitir que los investigadores continúen desarrollando nuevas tecnologías de IA con pocas restricciones. Se afirma en el informe que "el enfoque de la regulación de los productos habilitados para IA para proteger la seguridad pública debe basarse en la evaluación de los aspectos del riesgo....".[120]​ Estos riesgos serían la razón principal para crear cualquier forma de regulación, dado que cualquier regulación existente no se aplicaría a la tecnología de IA.

El primer informe principal fue el Plan Estratégico Nacional de Investigación y Desarrollo de Inteligencia Artificial. Archivado el 2 de mayo de 2021 en Wayback Machine. El 13 de agosto de 2018, la Sección 1051 de la Ley de Autorización de la Defensa Nacional John S. McCain del año fiscal 2019 (PL 115-232) estableció la Comisión de Seguridad Nacional sobre Inteligencia Artificial "para considerar los métodos y medios necesarios para avanzar en el desarrollo de la inteligencia artificial, aprendizaje automático y tecnologías asociadas para abordar de manera integral las necesidades de defensa y seguridad nacional de los Estados Unidos".[121]​ La Dirección para regular la IA relacionada con la seguridad está a cargo de la Comisión Nacional de Seguridad sobre Inteligencia Artificial.[122]​ La Ley de Iniciativa de Inteligencia Artificial (S.1558) es un proyecto de ley propuesto que establecería una iniciativa federal diseñada para acelerar la investigación y el desarrollo de IA para, entre otras cosas, la seguridad económica y nacional de los Estados Unidos.[123][124]

El 7 de enero de 2019, luego de una Orden Ejecutiva sobre el Mantenimiento del Liderazgo Estadounidense en Inteligencia Artificial, la Oficina de Política Científica y Tecnológica de la Casa Blanca publicó un borrador de Orientación para la Regulación de Aplicaciones de Inteligencia Artificial, que incluye diez principios para las agencias de los Estados Unidos al momento de decidir si cómo regular la IA.[125]​ En respuesta, el Instituto Nacional de Estándares y Tecnología ha publicado un documento de posición,[126]​ y la Junta de Innovación de Defensa ha emitido recomendaciones sobre el uso ético de la IA.[127]​ Un año después, la administración solicitó comentarios sobre la regulación en otro borrador de su Guía para la regulación de aplicaciones de inteligencia artificial.[128]

Otras agencias específicas que trabajan en la regulación de la IA incluyen la Administración de Alimentos y Medicamentos,[129]​ que ha creado vías para regular la incorporación de la IA en imágenes médicas.[130]

En marzo de 2021, la Comisión de Seguridad Nacional sobre Inteligencia Artificial publicó su informe final.[131]​ En el informe, afirmaron que "los avances en IA, incluido el dominio de capacidades de IA más generales en una o más dimensiones, probablemente proporcionarán nuevas capacidades y aplicaciones. Algunos de estos avances podrían conducir a puntos de inflexión o saltos en las capacidades. Dichos avances también pueden presentar nuevas preocupaciones y riesgos y la necesidad de nuevas políticas, recomendaciones y avances técnicos para garantizar que los sistemas estén alineados con los objetivos y valores, incluida la seguridad, la solidez y la confiabilidad. Estados Unidos debe monitorear los avances en IA y hacer las inversiones necesarias en tecnología y prestar atención a las políticas para garantizar que los sistemas de IA y sus usos se alineen con nuestros objetivos y valores".

En junio de 2022, los senadores Rob Portman y Gary Peters introdujeron la Ley de Mitigación de Riesgos Catastróficos Globales. El proyecto de ley bipartidista "también ayudaría a contrarrestar el riesgo de que la inteligencia artificial... sea abusada de formas que puedan representar un riesgo catastrófico".[132][133]​ El 4 de octubre de 2022, el presidente Joe Biden presentó una nueva Declaración de derechos de la IA, que describe cinco protecciones que los estadounidenses deberían tener en la era de la IA: 1. Sistemas Seguros y Efectivos, 2. Protección contra la discriminación algorítmica, 3. Privacidad de datos, 4. Aviso y Explicación, y 5. Alternativas humanas, consideración y respaldo. El proyecto de ley fue presentado en octubre de 2021 por la Oficina de Política Científica y Tecnológica (OSTP), un departamento del gobierno de EE. UU. que asesora al presidente sobre ciencia y tecnología.[134]

En enero de 2023, el Concejo de la Ciudad de Nueva York promulgó la Ley de Auditoría Sesgada de la Ciudad de Nueva York (Ley Local 144) en noviembre de 2021. Originalmente debía entrar en vigencia el 1 de enero de 2023, la fecha de aplicación de la Ley Local 144 ahora se retrasó hasta el 15 de abril de 2023 debido al alto volumen de comentarios recibidos durante la audiencia pública sobre el Departamento de Protección al Consumidor y al Trabajador (DCWP) normas propuestas para aclarar los requisitos de la legislación. A partir del 15 de abril de 2023, las empresas tienen prohibido utilizar herramientas automatizadas para contratar candidatos o promover empleados, a menos que las herramientas hayan sido auditadas de forma independiente para detectar sesgos. Es probable que estas regulaciones afecten a cientos de organizaciones dentro de la ciudad y pueden incluir la suya.

Brasil[editar]

El 30 de septiembre de 2021, la Cámara de Diputados de Brasil aprobó el Marco Legal Brasileño para la Inteligencia Artificial, Marco Legal da Inteligência Artificial, en esfuerzos regulatorios para el desarrollo y uso de tecnologías de IA y para estimular aún más la investigación y la innovación en soluciones de IA dirigidas a la ética., cultura, justicia, equidad y rendición de cuentas. Este proyecto de ley de 10 artículos describe objetivos que incluyen misiones para contribuir a la elaboración de principios éticos, promover inversiones sostenidas en investigación y eliminar barreras a la innovación. Específicamente, en el artículo 4, el proyecto de ley enfatiza la evitación de soluciones de IA discriminatorias, la pluralidad y el respeto a los derechos humanos. Además, esta ley enfatiza la importancia del principio de igualdad en los algoritmos deliberados de toma de decisiones, especialmente para sociedades altamente diversas y multiétnicas como la de Brasil.

Cuando el proyecto de ley se hizo público por primera vez, enfrentó críticas sustanciales, lo que alarmó al gobierno por las disposiciones críticas. El problema subyacente es que este proyecto de ley no aborda de manera exhaustiva y cuidadosa los principios de responsabilidad, transparencia e inclusión. El artículo VI establece la responsabilidad subjetiva, lo que significa que cualquier persona que resulte dañada por un sistema de IA y desee recibir una compensación debe especificar la parte interesada y demostrar que hubo un error en el ciclo de vida de la máquina. Los académicos enfatizan que está fuera del orden legal asignar a un individuo responsable de probar errores algorítmicos dado el alto grado de autonomía, imprevisibilidad y complejidad de los sistemas de IA. Esto también llamó la atención sobre los problemas que ocurren actualmente con los sistemas de reconocimiento facial en Brasil que conducen a arrestos injustos por parte de la policía, lo que implicaría que cuando se apruebe este proyecto de ley, las personas tendrían que probar y justificar estos errores de la máquina.

La principal controversia de este proyecto de ley estuvo dirigida a tres principios propuestos. Primero, el principio de no discriminación sugiere que la IA debe desarrollarse y usarse de una manera que simplemente mitigue la posibilidad de prácticas abusivas y discriminatorias. En segundo lugar, la búsqueda del principio de neutralidad enumera recomendaciones para que las partes interesadas mitiguen los sesgos; sin embargo, sin obligación de lograr este objetivo. Por último, el principio de transparencia establece que la transparencia de un sistema sólo es necesaria cuando existe un alto riesgo de vulneración de derechos fundamentales. Como se observa fácilmente, el Marco Legal Brasileño para la Inteligencia Artificial carece de cláusulas vinculantes y obligatorias y está más bien lleno de pautas relajadas. De hecho, los expertos enfatizan que este proyecto de ley puede incluso hacer que la rendición de cuentas por los sesgos discriminatorios de AI sea aún más difícil de lograr. En comparación con la propuesta de la UE de regulaciones extensivas basadas en el riesgo, el proyecto de ley brasileño tiene 10 artículos que proponen recomendaciones vagas y genéricas.

En comparación con el enfoque de participación de múltiples partes interesadas adoptado anteriormente en la década de 2000 cuando se redactó la Declaración de Derechos de Internet de Brasil, Marco Civil da Internet, se evalúa que la Ley de Brasil carece significativamente de perspectiva. El multistakeholderismo, más comúnmente conocido como Gobernanza de múltiples partes interesadas, se define como la práctica de reunir a múltiples partes interesadas para que participen en el diálogo, la toma de decisiones y la implementación de respuestas a problemas percibidos conjuntamente. En el contexto de la IA regulatoria, esta perspectiva de múltiples partes interesadas captura las ventajas y desventajas y las diferentes perspectivas de diferentes partes interesadas con intereses específicos, lo que ayuda a mantener la transparencia y una eficacia más amplia. Por el contrario, la propuesta legislativa para la regulación de la IA no siguió un enfoque similar de múltiples partes interesadas.

Los pasos futuros pueden incluir ampliar la perspectiva de múltiples partes interesadas. Ha habido una creciente preocupación por la inaplicabilidad del marco del proyecto de ley, que destaca que la solución única puede no ser adecuada para la regulación de la IA y exige disposiciones subjetivas y adaptativas.

Costa Rica[editar]

El congreso discute el expediente legislativo 23771, ley de regulación de la inteligencia artificial, presentado por la Diputada Vanessa Castro Mora y otros Diputados. Este proyecto de ley tiene por objeto regular el desarrollo, implementación y uso de la inteligencia artificial en Costa Rica, en concordancia con los principios y derechos establecidos en la Constitución Política de 1949 y los tratados internacionales de los que Costa Rica sea parte. La presente ley se centra en la protección y promoción de la dignidad, los derechos humanos y el bienestar de la persona humana. La propuesta de ley fue desarrollada con la asistencia del ChatGPT-4[135]

Regulación de armas totalmente autónomas[editar]

Las cuestiones jurídicas relacionadas con los sistemas letales de armas autónomas (LAWS), en particular el cumplimiento de las leyes de los conflictos armados, se debaten en las Naciones Unidas desde 2013, en el contexto de la Convención sobre Ciertas Armas Convencionales.[136]​ En particular, se llevaron a cabo reuniones informales de expertos en 2014, 2015 y 2016 y se nombró un Grupo de Expertos Gubernamentales (GGE) para deliberar más sobre el tema en 2016. En 2018 se adoptó un conjunto de principios rectores sobre LEYES afirmados por el GGE sobre LEYES[137]

En 2016, China publicó un documento de posición cuestionando la idoneidad del derecho internacional existente para abordar la eventualidad de armas completamente autónomas, convirtiéndose en el primer miembro permanente del Consejo de Seguridad de la ONU en abordar el tema,[138]​ y dando lugar a propuestas de regulación global.[139]​ La posibilidad de una moratoria o prohibición preventiva del desarrollo y uso de LAWS también ha sido planteada en varias ocasiones por otras delegaciones nacionales en la Convención sobre Ciertas Armas Convencionales y la Campaña para Detener a los Robots Asesinos, una coalición de no -organizaciones gubernamentales.[140]​ El gobierno de los EE. UU. sostiene que el derecho internacional humanitario actual es capaz de regular el desarrollo o uso de las LEYES, y el ejército de los EE. UU. no tiene LEYES en su inventario.[141]

Regulación de la IA en textos científicos ¿Cómo reportar su uso de forma transparente?[142][editar]

La Inteligencia artificial (IA) reta la forma tradicional de hacer y publicar ciencia, "ya que aporta herramientas que complementan, reaprenden y simplifican procesos complejos propios de la investigación realizada por seres humanos"[142]​. La transparencia al reportar el uso de IA en la comunicación científica es relevante y debe garantizar la congruencia entre la rigurosidad de la comunicación científica y su ecosistema de gestión editorial (en el que participan personas editoras, revisoras y autoras). El fin último del uso de IA debe ser el bien común y la mejora de la calidad de vida de las personas[142]​. Mitigar sesgos y desinformación debe ser un objetivo de cualquier investigador o investigadora que apoye sus procesos con modelos de inteligencia artificial.

Los autores deben dejar una ruta clara de por qué y cómo han utilizado Inteligencia Artificial en sus textos científicos, para ello pueden recurrir a diferentes estrategias como reportar, en el artículo científico, el modelo de lenguaje, fecha de uso y contenido de la consulta realizada; también pueden reportar los prompts utilizados y mostrar de forma explícita la cadena de relaciones entre los prompts utilizados. Condensar esta información en un prompt net o diagrama de red de prompts permite a quienes lean el artículo entender mejor el uso de la IA en el proceso de investigación.

Dentro del ecosistema de publicación científica, además de los autores, los editores y árbitros deben transparentar el uso de IA de tal forma que se entienda cómo esta ha apoyado los procesos de edición y de evaluación de contenidos.

Permanecen los debates sobre el uso de material que respete autorías y propiedad intelectual por parte de estos modelos para que no se propaguen usos ilegítimos de la producción de terceros.[142]

Referencias[editar]

  1. «Artificial Intelligence and Robotics». UNICRI. Consultado el 8 de agosto de 2020. 
  2. Nemitz, Paul (2018). «Constitutional democracy and technology in the age of artificial intelligence». Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences 376 (2133): 20180089. Bibcode:2018RSPTA.37680089N. PMID 30323003. doi:10.1098/rsta.2018.0089. 
  3. Cath, Corinne (2018). «Governing artificial intelligence: ethical, legal and technical opportunities and challenges». Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences 376 (2133): 20180080. Bibcode:2018RSPTA.37680080C. PMC 6191666. PMID 30322996. doi:10.1098/rsta.2018.0080. 
  4. Buiten, Miriam C. (2019). «Towards Intelligent Regulation of Artificial Intelligence». European Journal of Risk Regulation 10 (1): 41-59. doi:10.1017/err.2019.8. 
  5. Ebers, Martin (2020). «Regulating AI and Robotics: Ethical and Legal Challenges». Algorithms and Law. Cambridge University Press. pp. 37-99. ISBN 978-1-108-34784-6. 
  6. Héder, M (2020). «A criticism of AI ethics guidelines». Információs Társadalom 20 (4): 57-73. doi:10.22503/inftars.XX.2020.4.5. 
  7. «European Commission.: Ethics guidelines for trustworthy AI. EC HLEG». 2019. 
  8. Curtis, Caitlin; Gillespie, Nicole; Lockey, Steven (24 de mayo de 2022). «AI-deploying organizations are key to addressing 'perfect storm' of AI risks». AI and Ethics (en inglés) 3 (1): 145-153. ISSN 2730-5961. PMC 9127285. PMID 35634256. doi:10.1007/s43681-022-00163-7. 
  9. «An Ethical Approach to AI is an Absolute Imperative, Andreas Kaplan» (en inglés). Consultado el 26 de abril de 2021. 
  10. Sotala, Kaj; Yampolskiy, Roman V (19 de diciembre de 2014). «Responses to catastrophic AGI risk: a survey». Physica Scripta 90 (1): 018001. ISSN 0031-8949. doi:10.1088/0031-8949/90/1/018001. 
  11. a b «Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk'». NPR.org (en inglés). Consultado el 27 de noviembre de 2017. 
  12. Gibbs, Samuel (17 de julio de 2017). «Elon Musk: regulate AI to combat 'existential threat' before it's too late». The Guardian. Consultado el 27 de noviembre de 2017. 
  13. Kharpal, Arjun (7 de noviembre de 2017). «A.I. is in its 'infancy' and it's too early to regulate it, Intel CEO Brian Krzanich says». CNBC. Consultado el 27 de noviembre de 2017. 
  14. Kaplan, Andreas; Haenlein, Michael (2019). «Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence». Business Horizons 62: 15-25. doi:10.1016/j.bushor.2018.08.004. 
  15. Barfield, Woodrow; Pagallo, Ugo (2018). Research handbook on the law of artificial intelligence. Cheltenham, UK. ISBN 978-1-78643-904-8. OCLC 1039480085. 
  16. Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (24 de julio de 2018). «Artificial Intelligence and the Public Sector—Applications and Challenges». International Journal of Public Administration 42 (7): 596-615. ISSN 0190-0692. doi:10.1080/01900692.2018.1498103. 
  17. Buiten, Miriam C (2019). «Towards Intelligent Regulation of Artificial Intelligence». European Journal of Risk Regulation 10 (1): 41-59. ISSN 1867-299X. doi:10.1017/err.2019.8. 
  18. Mantelero, Alessandro; Esposito, Maria Samantha (2021). «An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems». Computer Law & Security Review (en inglés) 41: 105561. ISSN 0267-3649. doi:10.1016/j.clsr.2021.105561. 
  19. Artificial intelligence in society. Paris: Organisation for Economic Co-operation and Development. 11 de junio de 2019. ISBN 978-92-64-54519-9. OCLC 1105926611. 
  20. Kamyshansky, Vladimir P.; Rudenko, Evgenia Y.; Kolomiets, Evgeniy A.; Kripakova, Dina R. (2020), «Revisiting the Place of Artificial Intelligence in Society and the State», Artificial Intelligence: Anthropogenic Nature vs. Social Origin (Cham: Springer International Publishing): 359-364, ISBN 978-3-030-39318-2, doi:10.1007/978-3-030-39319-9_41 .
  21. BUITEN, Miriam C (2019). «Towards Intelligent Regulation of Artificial Intelligence». European Journal of Risk Regulation 10 (1): 41-59. ISSN 1867-299X. doi:10.1017/err.2019.8. 
  22. «Special Issue on Soft Law Governance of Artificial Intelligence: IEEE Technology and Society Magazine publication information». IEEE Technology and Society Magazine 40 (4): C2. December 2021. doi:10.1109/MTS.2021.3126194. 
  23. a b c d e f Marchant, Gary. «"Soft Law" Governance of AI». AI Pulse. AI PULSE Papers. Consultado el 28 de febrero de 2023. 
  24. a b c d Johnson, Walter G.; Bowman, Diana M. (December 2021). «A Survey of Instruments and Institutions Available for the Global Governance of Artificial Intelligence». IEEE Technology and Society Magazine 40 (4): 68-76. doi:10.1109/MTS.2021.3123745. 
  25. Sutcliffe, Hillary R.; Brown, Samantha (December 2021). «Trust and Soft Law for AI». IEEE Technology and Society Magazine 40 (4): 14-24. doi:10.1109/MTS.2021.3123741. 
  26. a b Schmit, C. D.; Doerr, M. J.; Wagner, J. K. (17 de febrero de 2023). «Leveraging IP for AI governance». Science 379 (6633): 646-648. Bibcode:2023Sci...379..646S. PMID 36795826. doi:10.1126/science.add2202. 
  27. «Future of Life Institute 2017 Asilomar Conference». Consultado el 17 de junio de 2023. 
  28. «The Beijing Artificial Intelligence Principles». 1-6-2023. Consultado el 17 de junio de 2023. 
  29. Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adam; Srikumar, Madhu (15 de enero de 2020), Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI (en inglés estadounidense), Berkman Klein Center for Internet & Society .
  30. Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (24 de julio de 2018). «Artificial Intelligence and the Public Sector—Applications and Challenges». International Journal of Public Administration 42 (7): 596-615. ISSN 0190-0692. doi:10.1080/01900692.2018.1498103. 
  31. Wirtz, Bernd W.; Weyerer, Jan C.; Sturm, Benjamin J. (15 de abril de 2020). «The Dark Sides of Artificial Intelligence: An Integrated AI Governance Framework for Public Administration». International Journal of Public Administration 43 (9): 818-829. ISSN 0190-0692. doi:10.1080/01900692.2020.1749851. 
  32. a b Bredt, Stephan (4 de octubre de 2019). «Artificial Intelligence (AI) in the Financial Sector—Potential and Public Strategies». Frontiers in Artificial Intelligence 2: 16. ISSN 2624-8212. PMC 7861258. PMID 33733105. doi:10.3389/frai.2019.00016. 
  33. a b White Paper: On Artificial Intelligence – A European approach to excellence and trust. Brussels: European Commission. 2020. p. 1. 
  34. Wirtz, Bernd W.; Müller, Wilhelm M. (3 de diciembre de 2018). «An integrated artificial intelligence framework for public management». Public Management Review 21 (7): 1076-1100. ISSN 1471-9037. doi:10.1080/14719037.2018.1549268. 
  35. Reisman, Dillon; Schultz, Jason; Crawford, Kate; Whittaker, Meredith (2018). Algorithmic impact assessments: A practical framework for public agency accountability. New York: AI Now Institute. Archivado desde el original el 14 de junio de 2020. Consultado el 18 de junio de 2023. 
  36. «Towards Responsible Artificial Intelligence Innovation». UNICRI. 2020. Consultado el 9 de agosto de 2020. 
  37. Kohli, Ajay; Mahajan, Vidur; Seals, Kevin; Kohli, Ajit; Jha, Saurabh (2019). «Concepts in U.S. Food and Drug Administration Regulation of Artificial Intelligence for Medical Imaging». American Journal of Roentgenology 213 (4): 886-888. ISSN 0361-803X. PMID 31166758. doi:10.2214/ajr.18.20410. 
  38. Hwang, Thomas J.; Kesselheim, Aaron S.; Vokinger, Kerstin N. (17 de diciembre de 2019). «Lifecycle Regulation of Artificial Intelligence– and Machine Learning–Based Software Devices in Medicine». JAMA 322 (23): 2285-2286. ISSN 0098-7484. PMID 31755907. doi:10.1001/jama.2019.16842. 
  39. Sharma, Kavita; Manchikanti, Padmavati (1 de octubre de 2020). «Regulation of Artificial Intelligence in Drug Discovery and Health Care». Biotechnology Law Report 39 (5): 371-380. ISSN 0730-031X. doi:10.1089/blr.2020.29183.ks. 
  40. Petkus, Haroldas; Hoogewerf, Jan; Wyatt, Jeremy C (2020). «What do senior physicians think about AI and clinical decision support systems: Quantitative and qualitative analysis of data from specialty societies». Clinical Medicine 20 (3): 324-328. ISSN 1470-2118. PMC 7354034. PMID 32414724. doi:10.7861/clinmed.2019-0317. 
  41. Cheng, Jerome Y.; Abel, Jacob T.; Balis, Ulysses G.J.; McClintock, David S.; Pantanowitz, Liron (2021). «Challenges in the Development, Deployment, and Regulation of Artificial Intelligence in Anatomic Pathology». The American Journal of Pathology 191 (10): 1684-1692. ISSN 0002-9440. PMID 33245914. doi:10.1016/j.ajpath.2020.10.018. 
  42. a b Gurkaynak, Gonenc; Yilmaz, Ilay; Haksever, Gunes (2016). «Stifling artificial intelligence: Human perils». Computer Law & Security Review 32 (5): 749-758. ISSN 0267-3649. doi:10.1016/j.clsr.2016.05.003. 
  43. Iphofen, Ron; Kritikos, Mihalis (3 de enero de 2019). «Regulating artificial intelligence and robotics: ethics by design in a digital society». Contemporary Social Science 16 (2): 170-184. ISSN 2158-2041. doi:10.1080/21582041.2018.1563803. 
  44. AI principles: Recommendations on the ethical use of artificial intelligence by the Department of Defense. Washington, DC: United States Defense Innovation Board. 2019. OCLC 1126650738. 
  45. Babuta, Alexander; Oswald, Marion; Janjeva, Ardi (2020). Artificial Intelligence and UK National Security: Policy Considerations. London: Royal United Services Institute. Archivado desde el original el 2 de mayo de 2020. Consultado el 28 de abril de 2020. 
  46. «Robots with Guns: The Rise of Autonomous Weapons Systems». Snopes.com. 21 de abril de 2017. Consultado el 24 de diciembre de 2017. 
  47. Bento, Lucas (2017). No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law. p. Harvard Scholarship Depository. Consultado el 14 de septiembre de 2019. 
  48. Kissinger, Henry (1 de noviembre de 2021). «The Challenge of Being Human in the Age of AI». The Wall Street Journal. 
  49. a b c d Sotala, Kaj; Yampolskiy, Roman V (19 de diciembre de 2014). «Responses to catastrophic AGI risk: a survey». Physica Scripta 90 (1): 018001. ISSN 0031-8949. doi:10.1088/0031-8949/90/1/018001. 
  50. a b Barrett, Anthony M.; Baum, Seth D. (23 de mayo de 2016). «A model of pathways to artificial superintelligence catastrophe for risk and decision analysis». Journal of Experimental & Theoretical Artificial Intelligence 29 (2): 397-414. ISSN 0952-813X. arXiv:1607.07730. doi:10.1080/0952813x.2016.1186228. 
  51. Gurkaynak, Gonenc; Yilmaz, Ilay; Haksever, Gunes (2016). «Stifling artificial intelligence: Human perils». Computer Law & Security Review 32 (5): 749-758. ISSN 0267-3649. doi:10.1016/j.clsr.2016.05.003. 
  52. Boyd, Matthew; Wilson, Nick (1 de noviembre de 2017). «Rapid developments in Artificial Intelligence: how might the New Zealand government respond?». Policy Quarterly 13 (4). ISSN 2324-1101. doi:10.26686/pq.v13i4.4619. 
  53. Innovation, Science and Economic Development Canada (16 de mayo de 2019). «Declaration of the International Panel on Artificial Intelligence». gcnws. Consultado el 29 de marzo de 2020. 
  54. Simonite, Tom (8 de enero de 2020). «The world has a plan to rein in AI—but the US doesn't like it». Wired (en inglés británico). Consultado el 29 de marzo de 2020. 
  55. «AI Regulation: Has the Time Arrived?». InformationWeek (en inglés). 24 de febrero de 2020. Consultado el 29 de marzo de 2020. 
  56. a b UNESCO Science Report: the Race Against Time for Smarter Development.. Paris: UNESCO. 11 de junio de 2021. ISBN 978-92-3-100450-6. 
  57. «OECD Principles on Artificial Intelligence - Organisation for Economic Co-operation and Development». www.oecd.org (en inglés). Consultado el 29 de marzo de 2020. 
  58. «AI Regulation: Has the Time Arrived?». InformationWeek (en inglés). 24 de febrero de 2020. Consultado el 29 de marzo de 2020. 
  59. G20 Ministerial Statement on Trade and Digital Economy. Tsukuba City, Japan: G20. 2019. 
  60. «International AI ethics panel must be independent». Nature (en inglés) 572 (7770): 415. 21 de agosto de 2019. Bibcode:2019Natur.572R.415.. PMID 31435065. doi:10.1038/d41586-019-02491-x. 
  61. Guidelines for AI Procurement. Cologny/Geneva: World Economic Forum. 2019. 
  62. White Paper: On Artificial Intelligence – A European approach to excellence and trust. Brussels: European Commission. 2020. p. 1. 
  63. Babuta, Alexander; Oswald, Marion; Janjeva, Ardi (2020). Artificial Intelligence and UK National Security: Policy Considerations. London: Royal United Services Institute. Archivado desde el original el 2 de mayo de 2020. Consultado el 28 de abril de 2020. 
  64. «UNICRI :: United Nations Interregional Crime and Justice Research Institute». unicri.it. Consultado el 18 de julio de 2022. 
  65. UNICRI: United Nations Interregional Crime and Justice Research Institute (July 2020). «Towards Responsible Artificial Intelligence Innovation». unicri.it. Consultado el 18 de julio de 2022. 
  66. NíFhaoláin, Labhaoise; Hines, Andrew; Nallur, Vivek (2020). Assessing the Appetite for Trustworthiness and the Regulation of Artificial Intelligence in Europe. Dublin: Technological University Dublin, School of Computer Science, Dublin. pp. 1-12.  (The CC BY 4.0 licence means that everyone have the right to reuse the text that is quoted here, or other parts of the original article itself, if they credit the authors. More info: Creative Commons license) Changes were made as follows: citations removed and minor grammatical amendments.
  67. UNESCO Science Report: the Race Against Time for Smarter Development.. Paris: UNESCO. 11 de junio de 2021. ISBN 978-92-3-100450-6. 
  68. «Recommendation on the ethics of artificial intelligence». UNESCO (en inglés). 27 de febrero de 2020. Consultado el 18 de julio de 2022. 
  69. Nindler, Reinmar (11 de marzo de 2019). «The United Nation's Capability to Manage Existential Risks with a Focus on Artificial Intelligence». International Community Law Review 21 (1): 5-34. ISSN 1871-9740. doi:10.1163/18719732-12341388. 
  70. «About». AI for Good (en inglés estadounidense). Consultado el 6 de abril de 2023. 
  71. Aguilar, Iván Fernando Mérida (12 de enero de 2024). «Inteligencia Artificial y poder internacional». Meer. Consultado el 9 de abril de 2024. 
  72. Taddeo, Mariarosaria; Floridi, Luciano (2018-04). «Regulate artificial intelligence to avert cyber arms race». Nature (en inglés) 556 (7701): 296-298. doi:10.1038/d41586-018-04602-6. Consultado el 17 de noviembre de 2023. 
  73. Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body. Regulation of artificial intelligence in selected jurisdictions. OCLC 1110727808. 
  74. «OECD Observatory of Public Sector Innovation - Ai Strategies and Public Sector Components». Consultado el 4 de mayo de 2020. 
  75. Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector. Paris: OECD Observatory of Public Sector Innovation. 
  76. Artificial intelligence in society. Paris: Organisation for Economic Co-operation and Development. 11 de junio de 2019. ISBN 978-92-64-54519-9. OCLC 1105926611. 
  77. Campbell, Thomas A. (2019). Artificial Intelligence: An Overview of State Initiatives. Evergreen, CO: FutureGrasp, LLC. Archivado desde el original el 31 de marzo de 2020. Consultado el 18 de junio de 2023. 
  78. a b c d UNESCO Science Report: the Race Against Time for Smarter Development.. Paris: UNESCO. 11 de junio de 2021. ISBN 978-92-3-100450-6. 
  79. «Government Bill (House of Commons) C-27 (44-1) - First Reading - Digital Charter Implementation Act, 2022 - Parliament of Canada». www.parl.ca (en inglés canadiense). Consultado el 12 de julio de 2022. 
  80. State Council China. «New Generation of Artificial Intelligence Development Plan». www.unodc.org (en inglés). Consultado el 18 de julio de 2022. 
  81. Department of International Cooperation Ministry of Science and Technology (September 2017). «Next Generation Artificial Intelligence Development Plan Issued by State Council». China Science & Technology Newsletter (17): 2-12. 
  82. Wu, Fei; Lu, Cewu; Zhu, Mingjie; Chen, Hao; Zhu, Jun; Yu, Kai; Li, Lei; Li, Ming et al. (2020). «Towards a new generation of artificial intelligence in China». Nature Machine Intelligence (en inglés) 2 (6): 312-316. ISSN 2522-5839. doi:10.1038/s42256-020-0183-4. 
  83. «Ethical Norms for New Generation Artificial Intelligence Released». Center for Security and Emerging Technology (en inglés estadounidense). Consultado el 18 de julio de 2022. 
  84. «Council of Europe and Artificial Intelligence». Artificial Intelligence (en inglés británico). Consultado el 29 de julio de 2021. 
  85. NíFhaoláin, Labhaoise; Hines, Andrew; Nallur, Vivek (2020). Assessing the Appetite for Trustworthiness and the Regulation of Artificial Intelligence in Europe. Dublin: Technological University Dublin, School of Computer Science, Dublin. pp. 1-12.  (The CC BY 4.0 licence means that everyone have the right to reuse the text that is quoted here, or other parts of the original article itself, if they credit the authors. More info: Creative Commons license) Changes were made as follows: citations removed and minor grammatical amendments.
  86. a b NíFhaoláin, Labhaoise; Hines, Andrew; Nallur, Vivek (2020). Assessing the Appetite for Trustworthiness and the Regulation of Artificial Intelligence in Europe. Dublin: Technological University Dublin, School of Computer Science, Dublin. pp. 1-12.  (The CC BY 4.0 licence means that everyone have the right to reuse the text that is quoted here, or other parts of the original article itself, if they credit the authors. More info: Creative Commons license) Changes were made as follows: citations removed and minor grammatical amendments.
  87. Anonymous (25 de abril de 2018). «Communication Artificial Intelligence for Europe». Shaping Europe's digital future - European Commission (en inglés). Consultado el 5 de mayo de 2020. 
  88. smuhana (14 de junio de 2018). «High-Level Expert Group on Artificial Intelligence». Shaping Europe's digital future - European Commission (en inglés). Consultado el 5 de mayo de 2020. 
  89. a b Andraško, Jozef; Mesarčík, Matúš; Hamuľák, Ondrej (2 de enero de 2021). «The regulatory intersections between artificial intelligence, data protection and cyber security: challenges and opportunities for the EU legal framework». AI & Society 36 (2): 623-636. ISSN 0951-5666. doi:10.1007/s00146-020-01125-5. 
  90. «Ethics Guidelines For Trustworthy AI». 
  91. Weiser, Stephanie (3 de abril de 2019). «Building trust in human-centric AI». FUTURIUM - European Commission (en inglés). Consultado el 5 de mayo de 2020. 
  92. Anonymous (26 de junio de 2019). «Policy and investment recommendations for trustworthy Artificial Intelligence». Shaping Europe's digital future - European Commission (en inglés). Consultado el 5 de mayo de 2020. 
  93. a b European Commission. (2020). White paper on artificial intelligence: a European approach to excellence and trust. OCLC 1141850140. 
  94. «Does This Change Everything? Coronavirus and your private data». European Investment Bank (en inglés). Archivado desde el original el 7 de junio de 2021. Consultado el 7 de junio de 2021. 
  95. «White Paper on Artificial Intelligence – a European approach to excellence and trust | Shaping Europe's digital future». digital-strategy.ec.europa.eu. 19 de febrero de 2020. Consultado el 7 de junio de 2021. 
  96. Broadbent, Meredith (17 de marzo de 2021). What's Ahead for a Cooperative Regulatory Agenda on Artificial Intelligence? (en inglés). p. www.csis.org. Archivado desde el original el 7 de junio de 2021. Consultado el 7 de junio de 2021. 
  97. «Regulating AI in the EU». Mason Hayes & Curran (en inglés). Consultado el 30 de marzo de 2023. 
  98. Heikkilä, Melissa (2021-04-14). "POLITICO AI: Decoded: The EU's AI rules — Finland talks to machines — Facebook's fairness project" (newsletter). POLITICO. Retrieved 2021-05-14.
  99. European Commission (2021-04-21). Europe fit for the Digital Age: Commission proposes new rules and actions for excellence and trust in Artificial Intelligence (press release). Retrieved 2021-05-14.
  100. Pery, Andrew (6 de octubre de 2021). «Trustworthy Artificial Intelligence and Process Mining: Challenges and Opportunities». DeepAI. Consultado el 27 de febrero de 2022. 
  101. Veale, Michael; Borgesius, Frederik Zuiderveen (1 de agosto de 2021). «Demystifying the Draft EU Artificial Intelligence Act — Analysing the good, the bad, and the unclear elements of the proposed approach». Computer Law Review International (en inglés) 22 (4): 97-112. ISSN 2194-4164. arXiv:2107.03721. doi:10.9785/cri-2021-220402. 
  102. van Kolfschooten, Hannah (January 2022). «EU regulation of artificial intelligence: Challenges for patients' rights». Common Market Law Review 59 (1): 81-112. doi:10.54648/COLA2022005. 
  103. Natale, Lara (February 2022). «EU's digital ambitions beset with strategic dissonance». Encompass. Consultado el 25 de febrero de 2022. 
  104. Bertuzzi, Luca (17 de septiembre de 2021). «Digital Brief powered by Google: make it or break it, Chips Act, showing the path». Euractiv. Consultado el 25 de febrero de 2022. 
  105. Propp, Kenneth (7 de febrero de 2022). «France's new mantra: liberty, equality, digital sovereignty». Atlantic Council. Consultado el 25 de febrero de 2022. 
  106. «Reglamento de Inteligencia Artificial: el Consejo y el Parlamento alcanzan un acuerdo sobre las primeras normas del mundo en materia de inteligencia artificial». Reglamento de Inteligencia Artificial: el Consejo y el Parlamento alcanzan un acuerdo sobre las primeras normas del mundo en materia de inteligencia artificial. 9 de diciembre de 2023. Consultado el 13 de diciembre de 2023. 
  107. Klimaschutz, BMWK-Bundesministerium für Wirtschaft und. «„KI – Made in Germany“ etablieren». www.bmwk.de (en alemán). Consultado el 12 de junio de 2023. 
  108. «DIN, DKE und BMWi veröffentlichen Normungsroadmap für Künstliche Intelligenz». all-electronics (en alemán). Consultado el 12 de junio de 2023. 
  109. Runze, Gerhard; Haimerl, Martin; Hauer, Marc; Holoyad, Taras; Obert, Otto; Pöhls, Henrich; Tagiew, Rustam; Ziehn, Jens (2023). «Ein Werkzeug für eine gemeinsame KI-Terminologie - Das AI-Glossary als Weg aus Babylon». Java Spektrum (3): 42-46. 
  110. Runze, Gerhard; Haimerl, Martin; Hauer, Marc; Holoyad, Taras; Obert, Otto; Pöhls, Henrich; Tagiew, Rustam; Ziehn, Jens (2023). «Ein Werkzeug für eine gemeinsame KI-Terminologie - Das AI-Glossary als Weg aus Babylon». Java Spektrum (3): 42-46. 
  111. «Normungsroadmap Künstliche Intelligenz». www.dke.de (en alemán). Consultado el 12 de junio de 2023. 
  112. «Digital economy strategy 2015 to 2018». www.ukri.org (en inglés estadounidense). 16 de febrero de 2015. Consultado el 18 de julio de 2022. 
  113. Data Ethics Framework. London: Department for Digital, Culture, Media and Sport. 2018. 
  114. Leslie, David (11 de junio de 2019). «Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector». Zenodo. arXiv:1906.05684. doi:10.5281/zenodo.3240529. 
  115. Babuta, Alexander; Oswald, Marion; Janjeva, Ardi (2020). Artificial Intelligence and UK National Security: Policy Considerations. London: Royal United Services Institute. Archivado desde el original el 2 de mayo de 2020. Consultado el 28 de abril de 2020. 
  116. «Intelligent security tools». www.ncsc.gov.uk (en inglés). Consultado el 28 de abril de 2020. 
  117. Richardson, Tim. «UK publishes National Artificial Intelligence Strategy». www.theregister.com. 
  118. The National AI Strategy of the UK, 2021 (actions 9 and 10 of the section "Pillar 3 - Governing AI Effectively")
  119. Weaver, John Frank (28 de diciembre de 2018). «Regulation of artificial intelligence in the United States». Research Handbook on the Law of Artificial Intelligence (en inglés estadounidense): 155-212. ISBN 9781786439055. doi:10.4337/9781786439055.00018. 
  120. National Science and Technology Council Committee on Technology (October 2016). «Preparing for the Future of Artificial Intelligence». whitehouse.gov. 
  121. «About». National Security Commission on Artificial Intelligence (en inglés estadounidense). Consultado el 29 de junio de 2020. 
  122. Stefanik, Elise M. (22 de mayo de 2018). «H.R.5356 – 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018». www.congress.gov. Consultado el 13 de marzo de 2020. 
  123. Heinrich, Martin (21 de mayo de 2019). «Text - S.1558 - 116th Congress (2019-2020): Artificial Intelligence Initiative Act». www.congress.gov. Consultado el 29 de marzo de 2020. 
  124. Scherer, Matthew U. (2015). «Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies». SSRN Working Paper Series. ISSN 1556-5068. doi:10.2139/ssrn.2609777. 
  125. «AI Update: White House Issues 10 Principles for Artificial Intelligence Regulation». Inside Tech Media (en inglés estadounidense). 14 de enero de 2020. Consultado el 25 de marzo de 2020. 
  126. U.S. Leadership in AI: A Plan for Federal Engagement in Developing Technical Standards and Related Tools. National Institute of Science and Technology. 2019. 
  127. AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense. Washington, DC: Defense Innovation Board. 2020. 
  128. «Request for Comments on a Draft Memorandum to the Heads of Executive Departments and Agencies, "Guidance for Regulation of Artificial Intelligence Applications"». Federal Register. 13 de enero de 2020. Consultado el 28 de noviembre de 2020. 
  129. Hwang, Thomas J.; Kesselheim, Aaron S.; Vokinger, Kerstin N. (17 de diciembre de 2019). «Lifecycle Regulation of Artificial Intelligence– and Machine Learning–Based Software Devices in Medicine». JAMA (en inglés) 322 (23): 2285-2286. ISSN 0098-7484. PMID 31755907. doi:10.1001/jama.2019.16842. 
  130. Kohli, Ajay; Mahajan, Vidur; Seals, Kevin; Kohli, Ajit; Jha, Saurabh (2019). «Concepts in U.S. Food and Drug Administration Regulation of Artificial Intelligence for Medical Imaging». American Journal of Roentgenology 213 (4): 886-888. ISSN 0361-803X. PMID 31166758. doi:10.2214/ajr.18.20410. 
  131. NSCAI Final Report. Washington, DC: The National Security Commission on Artificial Intelligence. 2021. 
  132. Homeland Newswire (25 de junio de 2022). «Portman, Peters Introduce Bipartisan Bill to Ensure Federal Government is Prepared for Catastrophic Risks to National Security». HomelandNewswire. Consultado el 4 de julio de 2022. 
  133. «Text - S.4488 - 117th Congress (2021-2022): A bill to establish an interagency committee on global catastrophic risk, and for other purposes. | Congress.gov | Library of Congress». Congress.gov. 23 de junio de 2022. Consultado el 4 de julio de 2022. 
  134. «The White House just unveiled a new AI Bill of Rights». 
  135. «Asamblea: Expediente 23771». delfino.cr. Consultado el 26 de junio de 2023. 
  136. «Background on Lethal Autonomous Weapons Systems in the CCW». United Nations Geneva. 
  137. «Guiding Principles affirmed by the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons System». United Nations Geneva. 
  138. «Robots with Guns: The Rise of Autonomous Weapons Systems». Snopes.com. 21 de abril de 2017. Consultado el 24 de diciembre de 2017. 
  139. Baum, Seth (30 de septiembre de 2018). «Countering Superintelligence Misinformation». Information 9 (10): 244. ISSN 2078-2489. doi:10.3390/info9100244. 
  140. «Country Views on Killer Robots». The Campaign to Stop Killer Robots. 
  141. Sayler, Kelley (2020). Artificial Intelligence and National Security: Updated November 10, 2020. Washington, DC: Congressional Research Service. 
  142. a b c d Penabad-Camacho, Liana; Morera, Maria; Penabad-Camacho, María Amalia (16 de marzo de 2024). Guía para la regulación del uso de Inteligencia Artificial en revistas científico-académicas de ciencias sociales, en procesos de arbitraje y para reportar su uso en textos científicos. Consultado el 25 de abril de 2024.