La inteligencia artificial (IA) está en todas partes. Su ritmo de mejora e innovación es tan acelerado que ha sido un verdadero reto escribir un artículo sobre esta materia que continúe actualizado cada día que pasa. El objetivo de este artículo es reflexionar y despertar curiosidad en el lector sobre siete cuestiones jurídicas y de cumplimiento legal (compliance) que surgen en virtud de la rápida evolución de la IA, como son: propiedad intelectual, ejercicio de la profesión legal, privacidad, respeto a derechos humanos, competencia económica, derechos del consumidor y combate a crímenes financieros.
Una de las razones por las que todos hablan de IA ha sido el lanzamiento de ChatGPT, un sistema de inteligencia artificial consistente en un chatbot capaz de dialogar y resolver tareas complejas que, además, es fácilmente accesible para los consumidores.1 Si bien ChatGPT 3.5 era impresionante, su versión posterior, GPT-4, es aún más asombrosa, no sólo por su incremento en capacidad, sino porque sólo transcurrieron cuatro meses entre ambas versiones.
Mientras la mayoría de los reguladores se esfuerza por comprender el fenómeno y determinar su curso de acción, algunos han decidido actuar. Tal es el caso de Italia, cuyo organismo de protección de la privacidad ha prohibido temporalmente ChatGPT, debido a preocupaciones respecto de la recopilación y almacenamiento masivos de datos que conlleva. OpenAI, el creador de ChatGPT, ha prometido atender las preocupaciones de la autoridad italiana; sin embargo, este proceso ha llamado la atención de autoridades de otros países europeos, entre ellos, Alemania, Francia e Irlanda, quienes están siguiendo de cerca la evolución del caso para determinar si tomarán una medida similar. Podemos esperar que en las próximas semanas sea más clara la postura de otros países con respecto a ChatGPT a la luz de sus preocupaciones en materia de seguridad y privacidad.2
Pese a ser el tema de moda, las tecnologías de IA y chatbot no son nuevas. La IA existe desde la década de 1940 y surge con mayor fuerza después de la Segunda Guerra Mundial con personajes como Alan Turing, quien ya experimentaba con máquinas inteligentes.3 De hecho, Turing fue quien sugirió que las máquinas podían utilizar la “información y la razón” para resolver problemas e, incluso, tomar decisiones.4 En 1956, se acuñó el término “inteligencia artificial” durante la conferencia de Dartmouth, lanzando así el campo de la IA.5 Sin embargo, en los últimos años, la IA ha evolucionado rápidamente y ha transformado nuestra vida cotidiana en diversos campos, como la medicina, los recursos humanos, las finanzas y el transporte. En muchos casos, es posible que ni siquiera nos hayamos dado cuenta del nivel de integración de la IA en nuestras vidas. Entonces ¿qué es lo que ha llevado a esta rápida evolución de la IA? El almacenamiento y la velocidad de los ordenadores han sido claves para este rápido desarrollo.6 En este sentido, podemos afirmar que la etapa actual de la IA no podría disociarse de la era del big data (datos masivos), concepto entendido como un conjunto de datos de gran tamaño, de alta complejidad y que se mueve a una velocidad tan acelerada que no puede ser procesado de forma tradicional.
Por supuesto, no existe una definición única del concepto Inteligencia Artificial. Sin embargo, los elementos comunes entre diversas definiciones de ese concepto coinciden en que se trata de una ciencia o disciplina destinada a desarrollar máquinas, programas o sistemas que realicen tareas que requieren un nivel de inteligencia sólo observable en los seres humanos.7
Considerando que la IA ha evolucionado a lo largo de los años, ha sido durante la última década que ha surgido realmente una preocupación por parte de los reguladores sobre su potencial impacto en la sociedad. En respuesta, en algunas jurisdicciones ya se han presentado propuestas y normativas para abordar estas preocupaciones o acelerar la investigación sobre lo relacionado con IA.
Por ejemplo, con el objetivo de garantizar el liderazgo en la investigación de la IA y el desarrollo de sistemas de IA fiables, así como preparar a la fuerza laboral para la integración de la tecnología de la IA en todos los sectores de su economía, Estados Unidos promulgó la Ley de Iniciativa Nacional de Inteligencia Artificial (National Artificial Intelligence Initiative Act) el 1 de enero del 2021. La iniciativa pretende coordinar principalmente las actividades de investigación y educación sobre IA en todas las agencias federales estadunidenses.8 Asimismo, en 2022, la administración Biden-Harris publicó el anteproyecto para una Carta de Derechos de la IA (Blueprint for an AI Bill of Rights), la cual consiste en una guía (sin efectos vinculantes) que busca establecer los principios que deben regir a los sistemas de IA para proteger los derechos de las personas frente a los mismos.9 Además, hace unos días, dicha administración declaró que están recabando comentarios públicos sobre posibles medidas de regulación y responsabilidad para la IA como ChatGPT, con el fin de garantizar que “los sistemas de IA sean legales, eficaces, éticos, seguros y dignos de confianza”.10
Asimismo, en abril del 2021, la Comisión Europea (CE) presentó un paquete de medidas sobre IA que incluye una propuesta para regular la IA en la Unión Europea (UE) denominada “Propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial” (propuesta de la CE).11 La CE reconoció que esta propuesta es parte fundamental de la estrategia del mercado único digital de la UE.12 La legislación se está debatiendo actualmente en el Parlamento Europeo.13 En esta propuesta, la CE reconoce la necesidad de establecer un marco jurídico uniforme para el desarrollo, el mercado y el uso de la IA, orientado a mejorar el funcionamiento del mercado interior de conformidad con los valores de la UE.14
La propuesta de la CE adopta un enfoque basado en riesgos. Esto significa que los sistemas o aplicaciones de IA se clasificarían en alguno de los cuatro niveles de riesgo (inaceptable, alto, limitado o mínimo). Los requisitos que deberán cumplirse dependen del nivel de riesgo asignado.15 Los sistemas de riesgo inaceptable estarían prohibidos (por ejemplo, los sistemas o aplicaciones que manipulan el comportamiento humano o permitan la calificación o puntuación social por parte de los gobiernos). Por su parte, los sistemas de alto riesgo estarán sujetos a obligaciones estrictas, como un alto nivel de solidez, seguridad, precisión y una supervisión humana adecuada. 16
Los esfuerzos regulatorios que están encabezando diversos países son una señal innegable de que la IA es un fenómeno relevante que debe ser atendido con seriedad. Sin embargo, la velocidad de los procesos regulatorios difícilmente coincidirá con la velocidad con la que evoluciona esta tecnología. De ahí, yace la importancia de profundizar en ciertos temas legales y atenderlos a la brevedad para poder coexistir exitosamente con una tecnología que tiene el poder de mejorar las condiciones de vida, pero igual poder para trastornarlas.
A continuación, se desarrollan las siete cuestiones legales que consideramos relevantes y que sugerimos sean objeto de reflexión en los siguientes meses.

1. ¿Cómo funciona la innovación y la propiedad intelectual en el mundo de la IA?
Una de las principales preguntas que surgen cuando se utiliza un programa de IA como ChatGPT es quién constituye el titular de los derechos sobre el producto, o las respuestas generadas (output) en virtud de las indicaciones o instrucciones que emite el usuario (input).
Por ejemplo, según las condiciones de servicio de ChatGPT, el usuario es propietario del input, en la medida en que lo permita la ley. Mientras tanto, OpenAI cede al usuario todos los derechos sobre el output, siempre que se cumplan con las condiciones del servicio.17
Sin embargo, el output o producto generado mediante el uso de ChatGPT puede no ser único. El mismo resultado o uno similar puede ser generado para OpenAI o para terceros. Las respuestas solicitadas por otros usuarios y generadas para ellos no se consideran contenido del usuario.18
Incluso si el programa de IA asigna derechos sobre el producto u output al usuario, eso no significa necesariamente que la ley protegerá la creación u obra o que reconocerá al usuario como autor.
Como prueba de los efectos disruptores de la IA en materia de propiedad intelectual, la Organización Mundial de la Propiedad Intelectual ha celebrado varias sesiones centradas en el tema.19 Por ejemplo, uno de los paneles de la sexta y más reciente sesión, celebrada en Ginebra en septiembre del 2022, abordó las invenciones generadas de forma autónoma por la IA. Dado que varias solicitudes de patente han sido rechazadas en diferentes jurisdicciones porque las leyes aplicables establecen que los inventores deben ser humanos, los panelistas debatieron y argumentaron sobre la conveniencia de tener inventores exclusivamente humanos, permitir considerar a sistemas o aplicaciones de IA como inventores o buscar soluciones alternativas (por ejemplo, eliminar el requisito de nombrar a un inventor).20
Recientemente, la Oficina de Derechos de Autor de los Estados Unidos (USCO, por sus siglas en inglés) concluyó que ciertas imágenes generadas por tecnología de IA no estaban sujetas a la protección de los derechos de autor, ya que no eran “obras de autor” originales. La USCO examinó imágenes creadas por un programa de IA llamado Midjourney en respuesta a indicaciones o comandos de texto como parte de su revisión.21
En este caso, uno de los principales argumentos de la USCO era que Midjourney generaba las imágenes de una forma que puede calificarse como impredecible. Incluso cuando el autor influía en el producto con indicaciones, las instrucciones no determinaban el resultado de forma suficientemente significativa como para que la USCO considerara a los usuarios de Midjourney autores para efectos de derechos de autor. Para llegar a esa conclusión, la USCO se basó en el criterio de la Corte Suprema estadunidense al afirmar que “el autor de una obra protegida por derechos de autor es el que realmente ha formado la imagen, el que actúa como mente inventiva o maestra”. 22
Según la USCO, la distancia significativa entre las indicaciones del usuario y el resultado distingue a Midjourney de otras herramientas utilizadas por autores. La USCO aclaró que su resolución se basaba en los hechos de este caso,23 dejando la puerta abierta a otros programas de IA que funcionen de forma diferente a Midjourney.
La decisión de la USCO se fundamentó en el Compendio de prácticas de la Oficina de Derechos de Autor de EE. UU. (Compendium of U.S. Copyright Office Practices), que sigue las decisiones de los tribunales. Dado que las herramientas de IA se están desarrollando y mejorando a una velocidad vertiginosa, será interesante ver cómo evolucionan estas normas y decisiones.
Lo cierto es que el criterio establecido por la USCO en relación con la aplicación Midjourney es consistente con la política recientemente adoptada por dicha autoridad. En esta política, se especifica que, en el caso de solicitudes de registro de obras que incluyan material generado por tecnología de IA, la USCO evaluará si las contribuciones de dicha tecnología son “el resultado de una reproducción mecánica o, por el contrario, producto de la concepción mental original del autor a la que este dio forma visible”.24
Por ejemplo, si un autor humano emite solamente una instrucción y la tecnología produce una obra escrita, visual o musical compleja en respuesta, la USCO considerará que los elementos tradicionales de autoría son determinados y ejecutados por la tecnología y no por el usuario humano. La decisión sobre el registro dependerá de las características de cada caso, tomando en cuenta el funcionamiento de la tecnología de IA utilizada y la forma en que se creó la obra final.25
Asimismo, se ha pedido a la Corte Suprema de Estados Unidos que revise si se puede otorgar una patente a un programa de IA. El peticionario argumenta que rechazar el otorgamiento de este tipo de patentes obstaculiza la innovación.26 Esta es una de varias cuestiones que pueden avivar el debate sobre si los sistemas de IA tienen personalidad jurídica.27
Al respecto, el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial de la CE consideró que establecer personalidad jurídica para los sistemas de IA es “fundamentalmente incoherente con el principio de agencia, rendición de cuentas y la responsabilidad humanas”.28 De manera similar, otros investigadores han sostenido que la cuestión de la personalidad jurídica tiene el “potencial de causar conflictos con los derechos y libertades fundamentales y la reducción de la responsabilidad humana por los daños causados por la IA y los robots”.29
Otra cuestión relevante en materia de propiedad intelectual se refiere a la infracción de derechos de autor al entrenar modelos de IA. Varios artistas visuales30 y proveedores de archivos fotográficos31 han demandado a empresas de IA argumentando que utilizaron imágenes u obras de arte protegidas por derechos de autor para entrenar modelos sin la correspondiente licencia o consentimiento.
En esa misma línea, se ha reportado que Universal Music Group (UMG) ha solicitado a Spotify y Apple Music que impidan que plataformas de IA tengan acceso a sus canciones para entrenar a sus modelos y evitar la generación de música con base en la propiedad intelectual de los artistas representados por UMG, sin que exista consentimiento o pago de compensación alguno.32
Sobre el uso de contenido de terceros para alimentar modelos o plataformas de IA, Reddit está tomando una postura diferente. En lugar de impedir o limitar el acceso a su información, está planeando cobrar a los sistemas o plataformas de IA por el acceso a su contenido.33
La regulación sobre el acceso y uso de información o propiedad de terceros será uno de los temas más relevantes a resolver en el futuro cercano, ya que gran parte del éxito de los sistemas de IA depende del volumen y tipo de información de la que se alimentan.
2. ¿Qué significa la IA para la profesión legal?
La IA tiene el potencial de aumentar la eficiencia e incluso sustituir la intervención humana en determinadas tareas, lo que transformará inevitablemente nuestra forma de trabajar. Sin minimizar el impacto de la IA en diversas industrias, es interesante pensar en sus implicaciones en la profesión legal.
En muchos países, el ejercicio de la abogacía requiere la admisión en un colegio de abogados u otras formas de licencia. Curiosamente, GPT-4 ha demostrado la capacidad no sólo de aprobar el Examen Uniforme de la Abogacía (UBE)34 sino de superar a los aplicantes humanos en la sección de opción múltiple del examen.35
Estos avances plantean importantes cuestiones sobre el futuro de la profesión legal en la era de la IA. Por ejemplo, ¿qué ocurrirá cuando un programa de IA proporcione asesoría jurídica directamente a los clientes? ¿Requerirá el programa una licencia o un certificado equivalente a aprobar un examen de abogacía para estar calificado para prestar asesoría jurídica? Y en caso de negligencia, ¿quién sería considerado responsable y se enfrentaría a posibles sanciones por parte del Colegio de Abogados o Barra correspondiente o de la autoridad competente?
Puede parecer que aún estamos lejos del día en que estas preguntas sean relevantes y, sin duda, el análisis para encontrar respuestas adecuadas puede llevarnos a debatir la conveniencia de dotar de personalidad jurídica a los sistemas de IA. Sin embargo, la IA está mejorando y evolucionando más rápido de lo que pudimos imaginar hace unos meses. No es una coincidencia que el sector jurídico sea uno de los que más está invirtiendo en adaptarse.
Allen & Overy (A&O) anunció recientemente el lanzamiento de Harvey, una plataforma de IA basada en GPT-4 que está ayudando a los abogados en varias tareas internas, como el análisis de contratos, la auditoría legal, los litigios y la revisión de cumplimiento normativo. Esto es significativo dado que A&O es uno de los despachos de abogados más importantes en Europa. Harvey está siendo utilizado por más de 3,500 abogados de A&O en todo el mundo, en diferentes idiomas y a través de diversas áreas de práctica.36
A&O es el primero y, desde luego, no el último. Hace unas semanas, PWC anunció una alianza estratégica con Harvey para proporcionar acceso a la plataforma de IA a los profesionales de Tax & Legal Services de PWC a nivel global.37
Hace poco llamó la atención la noticia del uso de un dispositivo de IA o “abogado robot” para argumentar un caso en un tribunal estadunidense, lo que hizo que algunos imaginaran un mundo en el que entidades autónomas toman decisiones legales y discuten con los jueces. En este caso, la tecnología de IA se ejecutaba en un smartphone, escuchaba los argumentos y producía respuestas.38 Al final, el dispositivo de IA no se utilizó y es discutible si la regulación actual permite este tipo de tecnología en las salas de los tribunales. Sin embargo, no será la última vez que alguien pretenda beneficiarse de la IA para argumentar casos jurídicos en tiempo real.
Aunque a menudo se considera que la IA ahorra tiempo a los abogados, permitiéndoles concentrarse en el pensamiento creativo y en el trabajo de más alto nivel,39 no está claro cuánto tiempo pasará antes de que la IA supere a los humanos en todas las tareas. Los últimos avances subrayan la necesidad de marcos regulatorios que guíen el uso de esta tecnología en la abogacía.
3. ¿Cuáles son los retos de la privacidad de datos en la era de la IA?
Las plataformas de IA se alimentan de datos para funcionar. Eso abre otro frente de preocupación sobre cómo se tratarán y protegerán esos datos.
Según las condiciones de uso de ChatGPT, OpenAI puede utilizar tanto input como output para ayudar a desarrollar y mejorar los servicios que ofrece40 y sus modelos. Es importante señalar que OpenAI permite a los usuarios solicitar que no se utilicen sus datos para mejorar dichos servicios.41
La información personal recopilada al utilizar ChatGPT es divulgada por OpenAI a sus “afiliados, vendedores y proveedores de servicios, autoridades de impartición de justicia y a las partes implicadas en Transacciones”.42 Aun cuando cada uno de estos supuestos de divulgación esté detallado en la política correspondiente, los usuarios deben ser conscientes de las implicaciones de proporcionar información personal y de que los usos de dicha información personal son múltiples, como mejorar los servicios, realizar investigaciones, desarrollar nuevos servicios y garantizar la seguridad de la red, los sistemas informáticos o la arquitectura de OpenAI.43
Si una persona utiliza la tecnología de IA e introduce en la plataforma cualquier cláusula o documento que contenga información de terceros, es probable que se produzca una violación de las obligaciones de confidencialidad debidas a dichos terceros. ¿Están trabajando ya las empresas en la elaboración de directrices que regulen el uso de la tecnología de IA por parte de sus empleados para evitar violaciones de confidencialidad?
Estas infracciones no sólo se derivarán de los acuerdos suscritos entre la empresa y el cliente. Dependiendo del uso y de la tecnología de IA, las divulgaciones también pueden infringir la normativa aplicable en materia de privacidad de datos, como el Reglamento General de Protección de Datos (RGPD) de la Unión Europea o la Ley de Privacidad del Consumidor de California (CCPA).
Como se mencionó en la introducción, hace unos días, Italia fue el primer país en prohibir ChatGPT por un supuesto incumplimiento de la normativa sobre privacidad de datos.44 Entre varias consideraciones para llegar a su decisión, la autoridad italiana, Garante per la Protezione dei Dati Personali, expuso que no existe una base jurídica adecuada en relación con la recopilación de datos personales y su tratamiento con el fin de entrenar algoritmos y que no se verifica la edad de los usuarios.45 Queda pendiente analizar cómo subsanará ChatGPT las supuestas infracciones y si otros países seguirán el ejemplo de Italia.
Uno de los mayores retos de la era de la IA será incentivar a las empresas a diseñar plataformas que consideren la privacidad como una de sus prioridades. Como afirma el Foro Económico Mundial, “una IA que respete la privacidad requiere empresas que la respeten”.46
La tarea es compleja porque puede haber ciertos efectos no deseados cuando el diseño prioriza la privacidad. En ciertos casos, esa priorización de la privacidad puede implicar una pérdida de precisión que también puede afectar a las decisiones sobre equidad y otros valores.47
Independientemente de la complejidad, la regulación debe incentivar que los desarrolladores de tecnología de IA consideren la privacidad de los usuarios como uno de los temas centrales a atender en la fase de diseño de sus plataformas.
4. ¿Podría la IA violar derechos humanos?
El uso de la IA en un gran número de campos ha crecido aceleradamente durante los últimos años. Una de las principales preocupaciones que han surgido es la capacidad que tienen los sistemas y algoritmos de IA de violar derechos humanos, aumentar la desigualdad, e incluso, amenazar la democracia.
Centrémonos en un ejemplo. Uno de los usos más comunes de los sistemas de IA es el de los recursos humanos. Es bien sabido que hoy en día muchas empresas utilizan estas herramientas basadas en la IA para filtrar candidatos y seleccionar a quienes avanzarán a las siguientes fases del proceso de contratación. El uso de estos sistemas sigue en aumento, se calcula que, al menos, el 55% de los directores de recursos humanos estadunidenses utilizarán sistemas de inteligencia artificial como parte de su trabajo en los próximos cinco años.48
La falta de transparencia y responsabilidad de estos sistemas, unida a la priorización del ahorro de tiempo por parte del personal de recursos humanos de algunas empresas, está dando lugar a prácticas de discriminación graves en el mercado laboral. Por ejemplo, en 2015, se descubrió que una herramienta de recursos humanos utilizada por Amazon (AMZN.O) discriminaba a las mujeres debido a que el algoritmo estaba diseñado en función de la experiencia pasada (replicando patrones de los últimos 10 años) lo que provocaba un sesgo a favor de los candidatos masculinos.49
De esta forma, los algoritmos no están eliminando los sesgos tradicionales de los seres humanos, sino escondiéndolos a través de herramientas tecnológicas, robots y “cajas negras”, creando lo que se denominamos “discriminadores silenciosos”. Los grupos afectados son fácilmente identificables: las minorías, las mujeres con pausas profesionales o trayectorias atípicas (como las mujeres que tuvieron que interrumpir su carrera por motivos como la maternidad), los inmigrantes, las personas mayores y las personas con discapacidad, por mencionar algunos.
En este sentido, la propuesta de la CE ha reconocido que si los sistemas de IA utilizados en el empleo, tanto en la contratación como en la evaluación de los trabajadores, no están debidamente regulados, pueden perpetuar patrones históricos de discriminación.50 De hecho, el proyecto considera los sistemas de IA laborales como de “alto riesgo” y establece obligaciones proporcionales destinadas a potenciar y proteger, entre otros derechos, el derecho a la dignidad humana, el respeto a la vida privada y la protección de los datos personales, la no discriminación y la igualdad entre mujeres y hombres, y el derecho de defensa y la presunción de inocencia.
Otro sistema de IA que ha suscitado serias preocupaciones en relación con los derechos humanos es el reconocimiento biométrico en tiempo real. La propuesta de la CE también lo clasifica como un sistema de alto riesgo, y la Organización de las Naciones Unidas (ONU) ha expresado su preocupación respecto a estos sistemas, ya que pudieran derivar en la identificación errónea de individuos y generar impactos desproporcionados en miembros de ciertos grupos de personas. Además, según la ONU, la tecnología de reconocimiento facial pudiera llegar a utilizarse indebidamente para elaborar perfiles de individuos en función de su etnia, raza, origen nacional, sexo y otras características.51
Según la propuesta de la CE, otros ejemplos de sistemas de IA de “alto riesgo” que podrían suponer una amenaza para los derechos humanos son los siguientes: 52
- Los sistemas de IA en la educación o la formación profesional, ya que pueden determinar el curso educativo y profesional de la vida de una persona y, por tanto, afectar a su capacidad para asegurarse el sustento.
- Sistemas de IA destinados a ser utilizados como componentes de seguridad en la gestión y el funcionamiento del tráfico y el suministro de agua, gas, calefacción y electricidad.
- Sistemas de IA para evaluar la calificación crediticia o la solvencia de las personas físicas.
- Sistemas de IA destinados a ser utilizados en la aplicación de la ley (evaluaciones de riesgos individuales, polígrafos y herramientas similares o para detectar el estado emocional de personas físicas, etc.).
- Sistemas de IA para la administración de justicia y el proceso democrático.
- Sistemas de IA utilizados en la gestión de la migración, el asilo y el control fronterizo.
- Sistemas de IA que son componentes de seguridad de productos, o que son ellos mismos productos.
Consideramos que la reciente aparición de ChatGPT plantea importantes cuestiones en relación con esta propuesta. Es probable que se produzca un intenso debate en torno a la categorización de los comportamientos de alto riesgo. Sin embargo, es crucial comprender que identificar un sistema como “alto riesgo” no significa que automáticamente estará prohibido. Por el contrario, habrá requisitos relativos a la calidad de los conjuntos de datos utilizados, la documentación técnica, el mantenimiento de registros, la transparencia, el suministro de información a los usuarios, la supervisión humana y la solidez, precisión y ciberseguridad para mitigar estos riesgos.53
Creemos que el futuro de la regulación de la IA deberá, como en el caso de la propuesta europea, estar basado en un enfoque de riesgos. Sin embargo, la rápida evolución de los sistemas de IA plantea un reto importante en sí mismo. En consecuencia, cualquier intento de categorización deberá ser lo suficientemente flexible y dinámico para adaptarse a los nuevos sistemas y actualizaciones. Sin esta flexibilidad, existe un alto riesgo de que se produzcan violaciones de los derechos humanos que serán imposibles de prevenir y serán irreparables.
Garantizar la protección de los derechos humanos debe ser una tarea conjunta de las empresas, los gobiernos, la sociedad civil, el mundo académico y las organizaciones internacionales. Por lo tanto, es necesario que de manera urgente se establezcan, al menos, principios básicos de gobernanza en materia de IA.54
Por último, coincidimos con la declaración del Consejo de Europa:
Garantizar que la inteligencia artificial (IA) refuerza y no socava los derechos humanos es uno de los factores clave que definirán el mundo en el que vivimos. La tecnología impulsada por la IA está entrando en más aspectos de la vida de cada individuo, desde los electrodomésticos inteligentes hasta las aplicaciones de las redes sociales, y las autoridades públicas la utilizan cada vez más para evaluar la personalidad o las aptitudes de las personas, asignar recursos y tomar otras decisiones que pueden tener consecuencias reales y graves para los derechos humanos de las personas. Encontrar el equilibrio adecuado entre el desarrollo tecnológico y la protección de los derechos humanos es, por tanto, una cuestión urgente.55
5. ¿Cuáles son las preocupaciones emergentes de la IA en materia de defensa de la competencia?
La competencia económica busca que los mercados funcionen de manera eficiente, y esto se logra cuando las empresas que están en el mercado compiten en precios, calidad e innovación por atraer clientes o consumidores. Por el contrario, cuando las empresas deciden no competir, ya sea porque se ponen de acuerdo entre ellas para no hacerlo, o bien, porque una empresa o un par de empresas deciden abusar de su posición de monopolio en el mercado, los precios se elevan, la cantidad de bienes o servicios se reducen en el mercado, y se frena la innovación.
Si bien la IA genera competencia y es parte de la innovación que se busca en los mercados, durante la última década, ha aumentado la preocupación de que los algoritmos puedan facilitar que las empresas se coludan en la fijación de precios. Así lo demuestran casos como el de Topkins en Estados Unidos, consistente en una conspiración para fijar precios en la venta de carteles en Amazon a través de un algoritmo. O bien, el caso Eturas en la UE, donde el operador de una plataforma lituana de reservas de viajes limitó los descuentos a los consumidores finales y modificó las decisiones de las agencias sobre los precios. En este último caso, el Tribunal de Justicia Europeo consideró que se trataba de una práctica horizontalmente concertada entre las agencias de viajes que no se “opusieron” a la propuesta.56
En México, la colusión entre competidores para fijar precios, reducir la oferta de bienes o servicios, manipular licitaciones, dividirse mercados o intercambiar información con alguno de esos propósitos se considera una práctica monopólica absoluta y es sancionable. Por ende, si varias empresas utilizaran un algoritmo que facilitara alguna de estas conductas, sería igualmente investigado y sancionado por las autoridades de competencia.
Además, en lo que respecta a conductas unilaterales (en México conocidas como prácticas monopólicas relativas) varias empresas digitales como Meta, Google y Amazon han enfrentado investigaciones, especialmente durante los últimos diez años, por parte de las autoridades de competencia por utilizar algoritmos para abusar de sus posiciones dominantes con el fin de perjudicar a la competencia, en particular mediante la auto-preferencia (self-preferencing) y la recopilación excesiva de datos. Un importante reto para las autoridades de competencia ha sido la falta de transparencia de estos algoritmos, lo que ha dificultado la investigación y la regulación de los mercados digitales.
La Ley de Mercados Digitales (DMA, por sus siglas en inglés) introducida recientemente en la UE tiene como objetivo regular a los grandes gigantes tecnológicos, en particular los servicios de plataformas centrales (core platform services) que actúan como “gatekeepers”, para evitar la imposición de condiciones injustas a sus usuarios, la cual tiene como objetivo el garantizar que existan mercados digitales justos y abiertos. La DMA apenas entró en vigor en noviembre del 2022 y comenzará a aplicarse en mayo de este año.57
Aún cuando todavía hay muchos debates en curso en torno al cumplimiento e implementación de la DMA, la IA puede plantear nuevos riesgos emergentes para la competencia y la regulación. ¿Podrían llegar a ser los Chatbots servicios de plataformas centrales algún día? El rápido éxito de ChatGPT parece haber sorprendido a todos, incluida una de las mayores empresas digitales: Google; quien, por cierto, ya ha anunciado que próximamente sacará al mercado su propio chatbot (o sistema conversacional) denominado Bard para competir contra ChatGPT. Por otro lado, algunas empresas tecnológicas han establecido alianzas con OpenAI para incorporar su tecnología y obtener ventajas competitivas. Es el caso de Microsoft, que ha lanzado una nueva versión de su motor de búsqueda (Bing) que integra el chatbot y espera integrar aún más IA en sus aplicaciones de Microsoft Office.
Como resultado, podemos anticipar una oleada de alianzas y fusiones en los próximos meses que requerirán el escrutinio de las autoridades de competencia de todo el mundo. Lo anterior, sin dejar de mencionar la posible existencia de “killer acquisitions” (fusiones asesinas), que son aquellas adquisiciones de empresas innovadoras que son realizadas por los adquirentes con la intención de eliminarlas como posibles competidores en el futuro. En este sentido, es probable que veamos a varias autoridades de competencia objetando o condicionando estas concentraciones durante los siguientes meses. Asimismo, podemos esperar que empiecen a surgir contratos de exclusividad entre estos nuevos sistemas de AI y empresas bien posicionadas en el mercado, lo que podría tener efectos de excluir o impedir el acceso a estas tecnologías por parte de competidores más pequeños. En el camino, surgirán varias reflexiones; por ejemplo, si las empresas que se fusionan son entidades competidoras actuales o potenciales. Otra cuestión que suscitará muchas preguntas será la definición de mercados relevantes, un tema que ha sido ampliamente explorado en el contexto del derecho de la competencia en los mercados digitales. ¿Se definirán mercados relevantes distintos por cada tipo de sistema de AI? ¿Es ChatGPT un competidor de los motores de búsqueda? Vale la pena señalar que la rápida evolución de la tecnología de IA representará un enorme reto para que las autoridades puedan predecir (ex ante) los futuros resultados de los sistemas de IA para efectos de sus análisis de competencia en el marco del ejercicio de sus atribuciones.
Además, la rápida evolución de IA incrementará el uso de algoritmos no sólo para facilitar la colusión, sino también para facilitar la discriminación de precios o trato, o el establecimiento de restricciones verticales como precios de reventa o distribuciones exclusivas. Lo anterior, toda vez que gracias a la cantidad de información que las máquinas recopilan y procesan, cada vez es más sencillo para las empresas determinar con mayor precisión las preferencias y perfiles de los consumidores y, por tanto, determinar el precio máximo que están dispuestos a pagar, ya sea con base en su género, localización geográfica, nivel de estudios, o cualquier otro factor que sea relevante para el producto o servicio en cuestión. Sin embargo, es importante resaltar que no todas las jurisdicciones están bien equipadas para investigar y sancionar este tipo de conductas. Por ejemplo, bajo la legislación de competencia mexicana (Ley Federal de Competencia Económica), las conductas explotativas como la fijación de precios excesivos o la discriminación de precios (sin efectos de exclusión de competidores) no podrían ser consideradas como prácticas monopólicas relativas.
En términos sencillos, se consideran conductas explotativas aquellas que puede realizar un agente económico explotando su poder sustancial en un mercado relevante para extraer el máximo de ganancias y apropiarse del bienestar del consumidor. Mientras que el bienestar del consumidor es la diferencia entre lo que los consumidores estaban dispuestos a pagar sobre lo que realmente pagaron. Es decir, cuando las empresas discriminan en precio o trato, se apropian de ese excedente. Bajo la legislación mexicana, las autoridades de competencia sólo pueden sancionar aquellas prácticas monopólicas relativas que tengan como objeto o efecto impedir el acceso al mercado o excluir del mercado a agentes económicos. Entonces, una discriminación de precios por género, o por nivel socioeconómico, realizada por un agente económico con poder sustancial no podría ser en sí misma una práctica monopólica relativa.
Como hemos explicado, la IA se basa en la programación de máquinas, el procesamiento de datos y los algoritmos. La experiencia reciente ha demostrado que los algoritmos suelen ser complejos, poco transparentes e intensivos en datos. En consecuencia, es de esperarse que las autoridades de la competencia examinen de cerca el desarrollo y el uso de estas herramientas para garantizar mercados justos y abiertos. Es probable que los gigantes tecnológicos integren chatbots de IA y otros sistemas de IA en sus plataformas actuales, lo que podría llevar a aumentar (aún más) su poder de mercado o a aprovechar su posición de dominio en otros mercados.
Otra cuestión que se ha debatido en el ámbito antimonopolio es determinar quién será considerado responsable de las acciones de los algoritmos y de las máquinas. Ezrachi y Stucke han señalado que “definir un punto de referencia para la ilegalidad puede ser un reto, ya que requiere evaluar si cualquier acción ilegal podría haber sido anticipada o predeterminada por los individuos que se benefician del algoritmo”.58 Por otra parte, en 2017, la Comisionada Europea Vestager declaró que:
Los retos que plantean los sistemas automatizados son muy reales. Si ayudan a las empresas a fijar los precios, realmente podrían hacer que nuestra economía funcionara peor para todos los demás. (...) Así que, como responsables de la defensa de la competencia, creo que tenemos que dejar muy claro que las empresas no pueden eludir su responsabilidad por colusión escondiéndose detrás de un programa informático.59
La Comisionada ha sido clara, las empresas serán las responsables últimas de sus sistemas de IA que facilitan comportamientos anticompetitivos; por lo tanto, las empresas deben conocer bien cómo funcionan.60
A la fecha, algunas autoridades de competencia han expresado su preocupación por el fenómeno ChatGPT. Un ejemplo es el Jefe del Departamento de Justicia de EE. UU. (DOJ), que ya ha declarado que los sistemas de IA son herramientas y, en respuesta, ha empezado a contratar a científicos de datos y expertos para asegurarse de que tendrán la capacidad de comprender dicha tecnología.
De hecho, algunas agencias reguladoras en Europa, tanto en materia de competencia y consumidores, como de supervisión financiera, ya utilizan auditorías de algoritmos (algorithmic auditing) desde hace varios años como parte de sus mecanismos de monitoreo y verificación. La auditoría de algoritmos incluye la revisión de documentación relacionada con su gobernanza, resultados de pruebas de los algoritmos o la inspección de su funcionamiento interno.61 De esta forma, se busca evitar que los algoritmos constituyan “cajas negras” que carezcan de transparencia y gobernanza.62
En nuestra opinión, las autoridades de defensa de la competencia en todo el mundo deberían ampliar su comprensión de la IA también con fines de aplicación de la ley y ejercicio de sus funciones. Por ejemplo, las herramientas de IA podrían ser extremadamente útiles para detectar patrones de colusión en las licitaciones públicas y movimientos inusuales de precios en los mercados. En este sentido, el uso de la IA en sus labores será crucial para que las autoridades de competencia puedan reforzar la detección e investigación de conductas anticompetitivas. Esto es relevante si recordamos que durante los últimos años el número de aplicaciones a los Programas de Inmunidad ha decrecido en todas las agencias de competencia del mundo. Finalmente, la AI también podría facilitar sus labores de supervisión, por ejemplo, para monitorear compromisos o condiciones en las concentraciones o los remedios derivados de las sanciones o de las terminaciones anticipadas de investigaciones.
6. La IA y la protección de consumidores: ¿estamos preparados?
Aunque la legislación en materia de consumo varía de un país a otro, los principios básicos de la legislación de la UE en materia de consumo sirven de base para cualquier sistema de este tipo. Estos principios incluyen: (i) protección hacia la parte más débil; (ii) autonomía de decisión regulada (es decir, que los consumidores cuenten con la información necesaria para tomar la mejor decisión); (iii) prohibición de discriminación; y (iv) salvaguarda de la privacidad del consumidor. 63
Cabe señalar que en México, la Ley Federal de Protección al Consumidor (LFPC) también establece en artículo 1.° los principios en los que deben basarse las relaciones de consumo, los cuales en términos generales coinciden con los de la UE, pero no contemplan la salvaguarda de la privacidad, pues aunque se hace una somera referencia a la protección de datos personales en el capítulo de transacciones efectuadas por medios electrónicos, desafortunadamente esta materia no ha sido tratada como parte integral de los derechos de los consumidores o usuarios en nuestro país.
Ahora bien, es incuestionable que la IA tiene el potencial de revolucionar el marketing y la publicidad. Sin embargo, existen muchos retos respecto a la protección de los derechos de los consumidores en la era digital. Con la creciente cantidad de datos recopilados por las empresas, existe el riesgo de que se presenten cada vez más prácticas abusivas como discriminación, las violaciones de la privacidad y la publicidad engañosa.
Respecto al primer punto, la IA podría aumentar las asimetrías de información y permitir a las empresas identificar de forma aún más detallada las preferencias de los consumidores y, por tanto, adaptar sus prácticas comerciales para explotar esta información y maximizar su beneficio a costa de los usuarios. De nuevo, hablamos de precios discriminatorios y ventas atadas, pero también es probable que se genere publicidad abusiva dirigida a poblaciones vulnerables, o en situaciones de necesidad, para inducirlos a adquirir bienes o servicios. En consecuencia, la legislación en materia de consumo debe tener un papel central en el establecimiento de limitaciones a los sistemas de IA cuando estos sean utilizados en la comercialización de bienes o servicios.
En el marco de la propuesta de la CE, la Organización Europea de Consumidores BEUC emitió un documento en el que reconoce que el uso de la IA tendrá importantes “riesgos y grandes implicaciones para la autonomía y autodeterminación de los consumidores, su privacidad, su capacidad para interactuar con productos y servicios y, en última instancia, en la capacidad de responsabilizar a las empresas si algo sale mal”.64
Es importante señalar que, en el paquete propuesto sobre IA, la CE también ha solicitado revisar la Directiva sobre Responsabilidad por Productos Defectuosos, que incluye la modernización de las normas de responsabilidad para los productos en la era digital. Según la CE, esto permitiría indemnizar por daños cuando productos como robots, drones o sistemas domésticos inteligentes se vuelvan inseguros debido a actualizaciones de software, IA o servicios digitales necesarios para el funcionamiento del producto, así como cuando los fabricantes no aborden las vulnerabilidades de ciberseguridad.65
Por otro lado, la IA también puede beneficiar a los consumidores de muchas maneras, reduciendo costos y ayudándoles a ahorrar mucho tiempo. Por ejemplo, la IA puede ayudar a los consumidores reduciendo los costos de transacción al facilitar la comparación de precios y calidades, y proporcionando una mejor comprensión de las tarifas, entre otros fines útiles.
La legislación de protección al consumidor está corriendo contra el tiempo cuando se trata de mercados digitales. Hay países como México, donde la legislación de protección al consumidor es obsoleta en lo que respecta al comercio en línea. Simplemente, la LFPC no ha sido modificada desde hace una década para abordar las preocupaciones de los mercados digitales, y, por ende, claramente no reconoce la complejidad de las plataformas tecnológicas, mucho menos de los algoritmos que están detrás de ellas.
En Europa, la recientemente promulgada Ley de Servicios de los Mercados Digitales (DSA, por sus siglas en inglés) ejemplifica un esfuerzo importante de la CE para proteger los derechos de los consumidores en este tipo de mercados, prohibiendo una serie de conductas que atentan contra los derechos a la privacidad y a la información de los usuarios (como el cruce de datos personales entre diversos servicios de la plataforma sin autorización del usuario), e imponiendo deberes de rendición de cuentas y transparencia a las plataformas digitales, para prevenir conductas abusivas o engañosas. Sin embargo, el auge de la IA, sobre todo cuando existe una interacción directa con los usuarios o de uso generalizado, planteará muchos retos adicionales a los marcos normativos actuales en todo el mundo para poder garantizar la protección de los derechos de los consumidores, como la privacidad, las condiciones contractuales justas y la no discriminación.
7. ¿Cuál es la relación entre la IA y los crímenes financieros?
A pesar de los esfuerzos de las autoridades y las empresas en los últimos años, los delitos financieros se han vuelto cada vez más sofisticados y difíciles de detectar y prevenir.66 Además, el cumplimiento de la normativa anti-lavado de dinero exige muchos recursos, toda vez que son normas muy dinámicas que constituyen un complejo entramado regulatorio de escala global. Según un informe de Deloitte, sólo en Estados Unidos las labores de compliance cuestan más de 25 000 millones de dólares al año.667 Otro dato sugiere que, en 2020, los bancos gastarán alrededor de 214 000 millones de dólares en el cumplimiento de la normativa sobre delitos financieros.68
Por lo tanto, está claro que el cumplimiento legal, tal y como lo conocemos, debe evolucionar e innovar. Desde nuestra perspectiva, la IA se convertirá en una herramienta poderosa y rentable para combatir el lavado de dinero, el financiamiento al terrorismo, el abuso del mercado y el fraude. Lo anterior, porque la IA puede procesar grandes cantidades de datos, analizarlos e identificar patrones para ayudar a las empresas a tomar decisiones más rápidas y con más información.
Entre otras funciones, la AI puede ayudar con las labores de identificación de clientes y la búsqueda en bases de datos globales de personas políticamente expuestas o sancionadas, esto último es especialmente relevante a partir de las sanciones impuestas a Rusia. Además, la IA puede ayudar a los equipos de cumplimiento a identificar y mitigar riesgos69, mejorar los procesos de información y establecer controles más adecuados. Asimismo, puede utilizarse para monitorear transacciones y analizar indicios de fraude, por ejemplo, mediante el análisis de grabaciones de voz (vgr. detectando tonos), geolocalización, identificar conflictos de intereses entre empresas y/o personas, e identificar y detener operaciones sospechosas, etc.70
No podemos ignorar que ya existían programas tecnológicos para la lucha contra el lavado de dinero y el financiamiento de terrorismo, pero estos programas tradicionales generaban un número excesivo de falsos positivos y errores, algunos de los cuales acabaron en sanciones para instituciones financieras. En consecuencia, las empresas se han visto cada vez más obligadas a realizar grandes inversiones en recursos humanos para reducir sus riesgos y su exposición legal. Sin embargo, ha habido un cambio durante los últimos años, más instituciones financieras han empezado a invertir en programas informáticos para crear sus propias herramientas de IA, lo que les ha permitido mejorar sus algoritmos y reducir costes.
En el mismo sentido, también durante los últimos años, los reguladores estadunidenses han reducido los obstáculos para fomentar el uso del aprendizaje automático en la lucha contra los delitos financieros, por ejemplo, la Ley contra el Blanqueo de Dinero (2020) y la Estrategia Nacional de Financiación Ilícita.71
Por su parte, en diciembre del año pasado, el Grupo Wolfsberg publicó los Principios de Wolfsberg para el uso de la inteligencia artificial y el aprendizaje automático en la delincuencia financiera. Los cinco principios incluyen el propósito legítimo, el uso proporcionado, el diseño y la experiencia técnica, la responsabilidad y la supervisión, así como la apertura y la transparencia.72 Es relevante destacar que el Grupo expresó su apoyo al uso de la IA y el aprendizaje automático por parte de las instituciones financieras en sus programas de cumplimiento, pero advirtió que deben tenerse en cuenta los principios de la ética de los datos a la hora de utilizar estas tecnologías. Además, reconoció que la IA puede permitir a las instituciones financieras centrarse más eficazmente en las actividades de control de la delincuencia financiera.73
Sin duda, todo esto supondrá un reto para los profesionales responsables del cumplimiento en el sector financiero, pues en un futuro muy cercano, tendrán que mejorar sus habilidades y adaptarse a la IA para poder realizar un trabajo de alto valor.
Pero no todo son buenas noticias. Últimamente preocupa la posibilidad de que la IA se utilice para cometer delitos, dada su extraordinaria capacidad para almacenar grandes conjuntos de datos con información sensible o incluso para reproducir voces grabadas.
El mes pasado, expertos policiales europeos publicaron un informe en el que advertían de que el ChatGPT puede constituir una herramienta para actividades delictivas, concretamente para el fraude, el ciber-fraude y la desinformación. Por ejemplo, puede producir código en diferentes lenguajes de programación, que puede utilizarse para producir código malicioso.74
Como resultado, en los próximos meses será necesario establecer mayores controles de seguridad para los sistemas de IA. Además, las empresas que utilicen herramientas de IA tendrán que asegurarse de que la información personal y confidencial se mantiene bajo estrictas normas de seguridad, actualizar los controles de acceso para el personal autorizado y establecer protocolos actualizados en caso de infracción.
Conclusión
Hemos planteado algunos temas recientes y sujetos a discusión sobre el impacto de la IA en el ámbito jurídico. Estas cuestiones requerirán un análisis y un debate más profundo a nivel global. En nuestra opinión, deben empezar a diseñarse urgentemente estándares y normas para garantizar que los sistemas de IA cumplan con los diversos marcos jurídicos, principalmente, para evitar que violen derechos humanos.
Ya existen primeros esfuerzos para regular los mercados digitales, abordando cuestiones como los algoritmos, el almacenamiento y el procesamiento de datos. Algunos ejemplos son la DMA y la DSA en la Unión Europea. Además, existen propuestas para regular la IA con el fin de garantizar la equidad y evitar violaciones de los derechos humanos. Sin embargo, la rápida evolución de este fenómeno dificulta que las autoridades reguladoras sigan el ritmo de la realidad.
Los acelerados avances de la tecnología de IA ponen de manifiesto que los abogados deben actuar con rapidez y coordinación para comprender y normar esta tecnología. Cuando empezamos a escribir este artículo, estábamos asombradas de las capacidades del GPT-4, pero en menos de un mes, han aparecido varias aplicaciones que afirman mejorar o ampliar las funciones de ChatGPT. Por ejemplo, Auto-GPT es una nueva aplicación de IA que presuntamente puede actuar de forma autónoma sin requerir indicaciones o instrucciones del usuario en cada paso para cumplir un objetivo.75 El ritmo dinámico y las diversas aplicaciones de los sistemas y aplicaciones de IA subrayan la necesidad de una acción rápida y coordinada por parte de la comunidad legal.
En este sentido, no sólo es responsabilidad de los abogados, sino también de la sociedad civil, las empresas, las organizaciones internacionales y los reguladores establecer las normas que regirán el funcionamiento de estos sistemas. No hacerlo, o hacerlo lentamente, puede tener consecuencias irreversibles para la humanidad.
Finalmente, un aspecto a destacar es que en la medida que la IA siga desarrollándose, los profesionales del derecho tendrán que adaptarse a estas tecnologías para evitar ser desplazados del mercado laboral. Los responsables de cumplimiento son un buen ejemplo de esta tendencia.
Durante los próximos años, los abogados deberemos estar preparados para adaptarnos y demostrar la resiliencia profesional necesaria para sobresalir en tiempos inciertos, entre otras cosas, deberemos estar dispuestos a evolucionar a la par de estas tecnologías. Las herramientas basadas en IA también nos permitirán trabajar de forma más eficiente y concentrarnos en tareas relevantes y creativas, mejorando nuestro rendimiento y permitiéndonos prestar un mejor servicio a nuestros clientes.
Laura Méndez. Abogada por el ITAM. LLM en Competencia (King's College London). Experta en competencia económica y cumplimiento legal.
Rebeca Sánchez. Abogada por el ITAM. LLM en Finanzas (Goethe-Universität Frankfurt am Main). Experta en m&a y derecho corporativo.
1 OpenAI, consultado el 4 de abril del 2023.
2 Mukherjee, S.; Pollina, E., y More, R. “Italy’s ChatGPT ban attracts EU privacy regulators”. Reuters, 3 de abril del 2023, consultado el 12 de abril del 2023.
3 McCarthy, J. What is Artificial Intelligence?, Stanford University, 2007, consultado el 4 de abril del 2023.
4 Rockwell, A. “The History of Artificial Intelligence”, Harvard University, consultado el 13 de abril del 2023.
5 Tate, K. “History of A.I.: Artificial Intelligence”, Live Science, 25 de agosto del 2014, consultado el 10 de abril del 2023.
6Rockwell, A. “The History of Artificial Intelligence”, Harvard University, consultado el 13 de abril del 2023.
7 En 1976, Newell y Simon se refirieron a la “acción inteligente general” al querer indicar el mismo alcance de la inteligencia que se observa en la acción humana y que significaba “que en cualquier situación real puede producirse un comportamiento adecuado a los fines del sistema y adaptable a las exigencias del entorno, dentro de unos límites de velocidad y complejidad”. Según John McCarthy (2007), la IA es “la ciencia y la ingeniería de crear máquinas inteligentes, especialmente programas informáticos inteligentes”. Además, preguntamos a ChatGPT qué es la IA, y nos respondió que se refiere a la “capacidad de las máquinas o sistemas informáticos para realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, la resolución de problemas, la percepción, la toma de decisiones y el procesamiento del lenguaje natural”.
8 H.R.6216 - National Artificial Intelligence Initiative Act of 2020, consultado el 12 de abril dle 2023.
9 Blueprint for an AI Bill of Rights, consultado el 12 de abril del 2023.
10 Shepardson, D., y Bartz, D. “US begins study of possible rules to regulate AI like ChatGPT”, Reuters, 12 de abril del 2023, consultado el 12 de abril del 2023.
11 A European approach to artificial intelligence, consultado el 4 de abril del 2023.
12 The AI Act, consultado el 7 de abril del 2023.
13 The European Union´s Artificial Intelligence Act, explained. Foro Económico Mundial, consultado el 7 de abril del 2023.
14 The AI Act.
15 A European approach to artificial intelligence.
16 Europe Fit for the Digital Age: Commission proposes new rules and actions for excellence and trust in Artificial Intelligence. Comunicado de prensa, 21 de abril del 2021, consultado el 7 de abril del 2023.
17 OpenAI, consultado el 4 de abril del 2023.
18 Ídem.
19 The WIPO Conversation on Intellectual Property and Artificial Intelligence, consultado el 8 de abril del 2023.
20 WIPO Conversation on Intellectual Property (IP) and Frontier Technologies, Resumen de la Sexta Sesión, 21 y 22 de septiembre del 2022, pp. 7-10, consultado el 13 de abril del 2023.
21 Carta fechada el 21 de febrero del 2023, emitida por la United States Copyright Office, relativa a la obra titulada Zarya of the Dawn (Registro #VAu001480196), consultado el 13 de abril del 2023.
22 Ídem.
23 Ídem.
24 Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence, Statement of Policy, 10 de marzo del 2023, consultado el 18 de abril del 2023.
25 Ídem.
26 SCOTUS Asked To Rule On Whether AI Can Be A Patent Inventor, 20 de marzo del 2023, consultado el 5 de abril del 2023.
27 Delcker, J. “Europe divided over robot ‘personhood’”, Politico, 11 de abril del 2018, consultado el 13 de abril del 2023.
28 Rodrigues, R. “Legal and Human Rights Issues of AI: Gaps, Challenges and Vulnerabilities”, Journal of Responsible Technology, diciembre del 2020, consultado el 13 de abril del 2023.
29 Recommendations for the enhancement of the existing legal frameworks for genomics, human enhancement, and AI and robotics, SIENNA, 2020, p. 70, consultado el 13 de abril del 2023.
30 Brittain, B.“Lawsuits accuse AI content creators of misusing copyrighted work”, Reuters, 17 de enero del 2023, consultado el 7 de abril del 2023.
31 Brittain, B. “Getty Images lawsuit says Stability AI misused photos to train AI”, Reuters, 6 de febrero del 2023, consultado el 5 de abril del 2023.
32 “Streaming services urged to clamp down on AI-generated music”, Financial Times, 11 de abril del 2023, consultado el 18 de abril del 2023.
33 Isaac, M. “Reddit Wants to Get Paid for Helping to Teach Big A.I. Systems”, The New York Times, 18 de abril del 2023, consultado el 19 de abril del 2023.
34 El UBE es coordinado por la Conferencia Nacional de Examinadores de Colegios de Abogados (National Conference of Bar Examiners) y ha sido adoptado por la mayoría de las jurisdicciones de EE. UU., consultado el 4 de abril del 2023.
35 Katz, D. M., y otros. GPT-4 Passes the Bar Exam, 15 de marzo del 2023, consultado el 4 de abril del 2023.
36 “A&O announces exclusive launch partnership with Harvey”, Allen & Overy, 15 de febrero del 2023, consultado el 6 de abril del 2023.
37 “PWC announces strategic alliance with Harvey, positioning it at the forefront of generative AI”, PWC, consultado el 7 de abril del 2023.
38 Cerullo, M. “UAI-powered ‘robot’ lawyer won’t argue in court after jail threats”, CBS News, 26 de enero del 2023., consultado el 6 de abril del 2023.
39 “7 Ways artificial intelligence can benefit your law firm”, Amercian Bar Association, septiembre del 2017, consultado el 8 de abril del 2023.
40 OpenAI, consultado el 4 de abril del 2023.
41 OpenAI, consultado el 4 de abril del 2023.
42 OpenAI, consultado el 4 de abril del 2023.
43 Ídem.
44 Browne, R. “Italy became the first Western country to ban ChatGPT. Here’s what other countries are doing”, CNBC, 4 de abril del 2023, consultado el 5 de abril del 2023.
45 “Garante per la Protezione Dei Dati Personali, Comunicado de Prensa del 30 de marzo del 2023, consultado el 6 de abril del 2023.
46 Why Artificial intelligence design must prioritize data privacy, 31 de marzo del 2023, consultado el 6 de abril del 2023.
47 Artificial Intelligence Risk Management Framework (AI RMF 1.0), National Institute of Standards and Technology, U.S. Department of Commerce, enero del 2023, , consultado el 6 de abril del 2023.
48 Dastin, J. “Amazon scraps secret AI recruiting tool that showed bias against women”, 10 de octubre del 2018, consultado el 12 de abril del 2023.
49 Ídem.
50 Proposal for a Regulation laying down harmonised rules on artificial intelligence. Comisión Europea, consultado el 4 de abril del 2023.
51 The right to privacy in the digital age, Informe del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, 13 de septiembre del 2021, consultado el 4 de abril del 2023.
52 Proposal for a Regulation laying down harmonised rules on artificial intelligence.
53 Ídem.
54 Human Rights Should be at the Heart of AU and Technology Governance, Carnegie Council, 21 de febrero del 2023, consultado el 11 de abril del 2023.
55 Artificial Intelligence and Human Rights, Consejo de Europa, consultado el 11 de abril del 2023.
56 Sentencia de la Corte de Justicia de la Union Europea en el asunto C-74/14, Eturas (sobre el alcance de las “prácticas concertadas” y sobre la colusión tecnológica), consultado el 13 de abril del 2023.
57 The Digital Markets Act: ensuring fair and open digital markets, consultado el 8 de abril del 2023.
58 Algorithms and Collusion, OCDE, 2017, consultado el 12 de abril del 2023.
59 Hirs, N. “When Margrethe Vestager takes antitrust battle to robots”, Politico, 28 de febrero del 2018, consultado el 11 de abril del 2023.
60 Algorithms and Collusion. OCDE. 2017.
61 Auditing algorithms: the existing landscape, role of regulators and future outlook, Digital Regulation Cooperation Forum. 23 de septiembre del 2022, consultado el 19 de abril del 2023.
62 Ídem.
63 Consumer law and artificial intelligence. Challenges to the EU consumer law and policy stemming from the business’ use of artificial intelligence, Informe final del proyecto ARTSY, consultado el 12 de abril del 2023.
64 Regulation AI to protect the consumer. Position Paper on the AI Actm BEUC. 2021, consultado el 10 de abril del 2023.
65 New liability rules on products and AI to protect consumers and foster innovation, 28 de septiembre del 2022, consultado el 8 de abril del 2023.
66 The case for Artificial Intelligence in Combating Money Laundering and Terrorist Financing, Deloitte y UOB, 2018, consultado el 7 de abril del 2023.
67 Ídem.
68 The fight against money laundering: Machine learning is a game changer, McKinsey, consultado el 11 de abril del 2023.
69 Ídem
70 Getting real about AI and financial crime, PWC Australia, https://www.pwc.com.au/consulting/assets/ai-financial-crime-article-07feb18.pdf, consultado el 10 de abril del 2023.
71 The fight against money laundering: Machine learning is a game changer. McKinsey.
72 The Wolfsberg Group, Wolfsberg Principles for Using Artificial Intelligence and Machine Learning in Financial Crime Compliance, consultado el 13 de abril del 2023.
73 Ídem.
74 ChatGPT's ability to draft realistic texts makes it tool for scammers & cyber crime - Europol, 27 de marzo del 2023, consultado el 2 de abril del 2023.
75 Larsen, L. “What is Auto-GPT? Here’s how autonomous AI agents are taking over the internet”, Digital Trends, 12 de abril del 2023, consultado el 13 de abril del 2023.