Compartir:
La discusión sobre una «carrera de inteligencia artificial» (o carrera de IA, como se le denomina comúnmente) ha sido objeto de continuo debate a lo largo de internet. Sin embargo, la pregunta que realmente necesita hacerse es ¿qué es una «carrera de IA»? Y si ciertamente es una carrera, ¿qué se encuentra en la meta? ¿Es el algoritmo más avanzado, una característica al cliente de gran beneficio, o el ecosistema más rentable? ¿Y dónde permitirá la Ley de Competencia un equilibrio de todos estos elementos en un espacio que avanza tan rápido?
Antes de profundizar, es importante poner en contexto lo que las empresas han presentado en esta «carrera». Apple, en junio, anunció en su Conferencia Mundial de Desarrolladores (WWDC) «Apple Intelligence».
Las características anunciadas incluyen la capacidad de ajustar el tono y estilo de respuestas escritas en aplicaciones, priorizar correos electrónicos y notificaciones urgentes, junto con la habilidad de escribir expresiones matemáticas en notas utilizando el Apple Pencil y el sistema proporcionando las respuestas en la propia caligrafía del usuario.
La funcionalidad descrita es la columna vertebral de una arquitectura de nube más sustancial llamada «Private Cloud Compute» (PCC), que en resumen, procesa la solicitud del usuario únicamente para ese propósito sin ninguna visibilidad para Apple y se borra una vez que la solicitud ha sido cumplida.
En mayo, Microsoft anunció hardware enfocado en IA denominado «Copilot + PC». Los chips de silicio que los impulsan han sido publicitados como capaces de realizar 40 billones de operaciones por segundo, siendo veinte veces más potentes y cien veces más eficientes para cargas de trabajo basadas en IA.
El telón de fondo de ambos anuncios es OpenAI: la compañía que introdujo ChatGPT (Chat Generative Pre-Trained Transformer) en noviembre de 2022 y Sora en febrero de 2024.
Dejando de lado los últimos desarrollos, las empresas tecnológicas han ampliado en gran medida sus ofertas de hardware y software a lo largo de los años, y con la funcionalidad de Inteligencia Artificial (IA) junto con el Aprendizaje Automático en Dispositivos (ODML) convirtiéndose en la norma, los reguladores están monitoreando de cerca las ofertas para garantizar el acceso justo al mercado y precios justos.
La competencia en este – o cualquier sector – no se trata solo de asegurar igualdad de condiciones para las empresas: garantiza que los consumidores obtengan un trato justo y acceso a una amplia gama de productos y servicios, contribuyendo al crecimiento económico. Las prácticas anticompetitivas pueden resultar en precios más altos y la dilución de oportunidades de mercado para otras organizaciones. Dentro del Reino Unido, el papel de la Autoridad de Mercados y Competencia (CMA) es promover la competencia en los mercados y abordar el comportamiento anticompetitivo.
Las áreas que supervisan incluyen fusiones (con la capacidad de bloquearlas si corren el riesgo de reducir sustancialmente la competencia), asegurando que tanto individuos como empresas estén informados sobre sus derechos y obligaciones bajo la ley de competencia y consumo, así como protegiendo a las personas de prácticas comerciales desleales que puedan surgir de un problema de mercado más amplio. Cuando se trata de enfoques para regular la tecnología, aquí es donde se han tomado e implementado medidas sustanciales.
El 21 de abril de 2024, la Unión Europea aprobó la Ley de IA, la primera ley independiente del mundo que regula el uso de la inteligencia artificial. Esta nueva ley adopta un enfoque basado en el riesgo con diferentes requisitos según el nivel de riesgo, a saber:
– Riesgo inaceptable: existen algunas prácticas de IA que se consideran una amenaza clara para los derechos fundamentales, con ejemplos que incluyen sistemas de IA que manipulan el comportamiento humano con el objetivo de distorsionar su comportamiento.
– Riesgo alto: Estos sistemas de IA deberán seguir reglas estrictas, incluyendo, por ejemplo, conjuntos de datos de alta calidad y supervisión humana.
– Riesgo limitado: El diseño de un sistema de IA clasificado como riesgo limitado debe hacerse de manera que una persona sea informada si está interactuando con un sistema de IA. Si se desarrolla un sistema de IA que genere o manipule deepfakes, la organización o individuo debe declarar que el contenido ha sido generado artificialmente.
Por otro lado, Reino Unido ha adoptado un enfoque basado en principios, formado a raíz de un libro blanco de 2023, «Un Enfoque Pro-Innovación para la Regulación de la IA». Basado en una falta de comprensión (y posiblemente confianza en las legalidades subyacentes) sobre la IA, sus riesgos y las brechas regulatorias, se identificó que este camino podría ser el más apropiado para comenzar, reconociendo la necesidad de acciones legislativas futuras. La metodología para establecer un marco para la Regulación de la IA se basó en cinco principios, a saber:
– Seguridad, seguridad y robustez
– Transparencia y explicabilidad apropiadas
– Justicia
– Responsabilidad y gobernanza
– Impugnabilidad y reparación
Si se adopta un enfoque basado en resultados basado en adaptabilidad y autonomía en sectores específicos por parte de los reguladores, esto deja espacio para la interpretación e incertidumbre regulatoria entre sectores.
El gobierno anterior no delineó planes para la introducción de un regulador de IA para supervisar la implementación del marco, sino que ha dejado que sean los reguladores individuales (como la Oficina de Comisionados de Información, Ofcom) quienes implementen los cinco principios basados en leyes y regulaciones existentes, obligando a los reguladores a presentar sus planes al gobierno en abril de este año.
Aunque el gobierno actual ha esbozado en su manifiesto aumentar la financiación en tecnologías de IA, los planes exactos del Departamento de Ciencia, Innovación y Tecnología aún están por delinearse.
Con diferentes enfoques, preguntas han surgido y seguirán surgiendo sobre cómo puede aplicarse y hacerse cumplir cada uno y la efectividad resultante para dar forma a la elaboración de políticas futuras. Es importante reconocer que ambos enfoques estarán sujetos a un escrutinio sectorial variable, mientras al mismo tiempo se mantiene el cumplimiento sectorial, ya que los casos de uso de IA se expanden. En conjunción con la expansión de los casos de uso de IA, las organizaciones que operan en sectores donde los reguladores tienen una comprensión limitada de los sistemas de IA podrían identificar lagunas para participar en prácticas anticompetitivas.
Desde una perspectiva de la Unión Europea, la competencia que prospera dentro del mercado interno podría resultar en la distorsión de la efectividad de la Ley de IA, resultando en la necesidad de aumentar los marcos de estándares de competencia para asegurar que estén continuamente alineados con los valores constitucionales de la UE. Aunque el gobierno actual aún no ha delineado planes, se espera ver si continuarán con el enfoque basado en principios o si adoptarán un enfoque similar al de la UE.
En conclusión, la convergencia de la comprensión de la IA, principios, casos de uso sectoriales, y las leyes más amplias no están destinados únicamente para una carrera de IA, sino que en cambio, debe verse como un esfuerzo dirigido a aumentar la comprensión, humanizar los casos de uso y ver cómo el derecho y la tecnología son compatibles entre sí en el presente para asegurar que la sociedad pueda no solo ver, sino también sentir los beneficios de las tecnologías de IA.