Ley de inteligencia artificial: más de 150 empresas piden a la UE una revisión de la propuesta de ley

¿Has probado ya alguna herramienta de IA? Infórmate en este post sobre todos los riesgos que hay tras esta tecnología punta.

Noticias y tendencias

¿Has usado ya el famoso chat GPT para trabajar o hacer alguna búsqueda de información a nivel personal? Si lo has hecho, habrás visto que su rapidez y eficacia son tan fascinantes como inquietantes. Si, estando aún en “pañales”, esta tecnología es capaz de arrojar esos resultados, imagínate cómo será dentro de unos años, cuando una sola herramienta sea capaz de hacer todo el trabajo y el mercado se convierta en un océano rojo lleno de tiburones compitiendo por el oligopolio de la IA.

Para frenar esta situación casi apocalíptica que se avecina, Y teniendo en cuenta los problemas colaterales que están surgiendo relacionados con la privacidad, los datos y la desaparición de muchos de los puestos de trabajo actuales, la UE ha elaborado una propuesta de ley que regula el desarrollo de la IA.

¿Qué es la IA generativa y en qué se diferencia de la inteligencia artificial?

Antes de profundizar en los fundamentos y motivos que han impulsado esta propuesta de ley, es importante que aclaremos primero la diferencia entre inteligencia artificial convencional e inteligencia artificial generativa, ya que, toda la polémica ha llegado con esta última.

La inteligencia artificial se centra en el análisis e interpretación de datos, mientras que la inteligencia artificial generativa puede crear contenidos desde cero, originales y únicos. Que esta tecnología haya irrumpido en el mundo con el factor creativo, significa todo un avance inesperado, pero también una amenaza, ya que, hasta el momento, todos nos sentíamos más seguros tras el límite que la creatividad humana interponía entre la tecnología y las personas. Pues bien, esa barrera ya no existe.

Ley de Inteligencia artifical: normas diferentes para cada nivel de riesgo

Para arrojar luz a esta incertidumbre que se ha extendido entre empresas y usuarios de todo el mundo, la Unión Europea, quiere proteger a sus miembros de la usurpación de datos y la violación de la privacidad en internet con la nueva Ley de Inteligencia Artificial. ¿Quieres saber en qué consiste? ¡Te lo contamos punto por punto a continuación!

La prioridad de esta ley es que los sistemas de IA que se usan dentro de la UE es que sean seguros, trazables, transparentes e inclusivos. Para ello, los sistemas de IA se analizan y se clasifican según el riesgo que supongan para los usuarios, y para los distintos niveles de peligro, se desarrollará una regulación más o menos flexible que los dividirá en: riesgo inaceptable, alto riesgo, IA generativa y riesgo limitado. Una vez aprobadas, serán las primeras normas del mundo sobre IA, así que, vamos a ver en qué consiste cada tipo de nivel.

¿Cuáles son los diferentes tipos de riesgos de la IA que contempla la nueva Ley de Inteligencia Artificial?

Riesgo inaceptable: los sistemas de IA de riesgo inaceptable se consideran una amenaza directa para las personas y serán prohibidos por incluir: manipulación cognitiva del comportamiento de las personas o grupos vulnerables y la clasificación de personas en función de su comportamiento, status o características personales. También se incluyen los sistemas de identificación biométrica en tiempo real.

Alto riesgo: son todos los sistemas de IA que vulneren los derechos fundamentales, y se dividen en dos grupos: los sistemas de IA que se usan en productos sujetos a la legislación de la UE sobre seguridad de los productos y los sistemas de IA pertenecientes a los siguientes ocho ámbitos, que deben ser registrados en una base de datos:

  • Identificación biométrica y categorización de personas físicas.
  • Gestión y explotación de infraestructuras críticas.
  • Educación y formación profesional.
  • Empleo, autoempleo y gestión de trabajadores.
  • Acceso y disfrute de servicios privados esenciales y prestaciones públicas.
  • Aplicación de la ley.
  • Gestión de la inmigración, control de fronteras y asilo de refugiados.
  • Asistencia a la interpretación jurídica.

IA generativa: los sistemas de IA generativa podrán seguir con su actividad siempre y cuando cumplan con los siguientes requisitos:

  • Garantizar que el contenido ha sido creado por IA.
  • Diseñas un modelo que evite contenidos ilegales.
  • Publicar resúmenes de los datos protegidos por derechos de autor.

Riesgo limitado: son los que cumplen con unos requisitos mínimos y el usuario siempre tendrá conocimiento de causa. Por ejemplo, deberán estar informados de si el contenido que se está consumiendo es un deep fake o cuándo están manipulados.

Algunas prácticas prohibidas en la Ley de Inteligencia Artificial

Según el país, la jurisprudencia en cuanto a la inteligencia artificial podrá varia, pero, no obstante, existen ciertas prácticas prohibidas extendidas para todas las legislaciones, como son las siguientes:

Discriminación injusta: la ley puede prohibir el uso de algoritmos de Inteligencia Artificial que perpetúen la discriminación basada en características como: la raza, el género, la religión o la orientación sexual. Esto incluye decisiones automatizadas en áreas como la contratación, el crédito y la justicia penal.

Vigilancia masiva sin consentimiento: la ley puede establecer restricciones sobre el uso de tecnologías de inteligencia artificial para la vigilancia masiva de personas sin su consentimiento. Esto incluye la grabación o seguimiento de individuos sin una base legal sólida o sin salvaguardias adecuadas para proteger la privacidad.

Manipulación de la información: se puede prohibir el uso de Inteligencia Artificial para difundir información falsa o engañosa de manera deliberada con el objetivo de influir en las opiniones o acciones de las personas. Esto incluye la manipulación de algoritmos de recomendación o la creación de perfiles que generen burbujas de filtro o sesgos informativos.

Riesgos para la seguridad y la vida humana: la ley establecerá regulaciones específicas para garantizar la seguridad y minimizar los riesgos asociados con el uso de sistemas de Inteligencia Artificial. Esto puede incluir la prohibición de sistemas autónomos que representen un peligro inaceptable para la vida humana o la exigencia de salvaguardias adecuadas en sectores como el transporte autónomo o la atención médica asistida por IA.

Si tu empresa ya es una de las pioneras en usa la IA para su actividad o, simplemente, crees que puede suponer un gran avance para tu flujo de trabajo o el de tu equipo, no lo dudes y suscríbete a Educa.Pro, donde encontrarás todo tipo de formación relacionada e información. ¡Te esperamos!

Sigue leyendo