Borrador del código de buenas prácticas de Inteligencia Artificial de uso general

Expertos independientes presentaron el segundo borrador del
Código de Prácticas de IA de propósito general, basado en los comentarios recibidos sobre el
primer borrador, publicado el 14 de noviembre de 2024.

Cada borrador es un trabajo en progreso y refleja las opiniones de las partes
interesadas que participan en los grupos de trabajo del Código de prácticas y
los talleres de proveedores, que constan de alrededor de 1.000 interesados,
incluidos representantes de los Estados miembros de la UE y observadores
europeos e internacionales.

El contenido del segundo borrador se basó en las reuniones del Grupo de
trabajo que se celebraron durante la semana del 18 de noviembre de 2024. Los
participantes tuvieron la oportunidad de proporcionar comentarios verbales,
hacer preguntas a los presidentes y responder a las preguntas de los
presidentes a través de encuestas interactivas.

Se presentó en el Plenario un resumen del contenido discutido en estas
reuniones del Grupo de trabajo. Los presidentes también recibieron 354
presentaciones de comentarios por escrito sobre el primer borrador a través de
una plataforma dedicada, y consideraron los comentarios de los proveedores de
modelos de IA de propósito general presentados en talleres dedicados, donde se
tomaron actas que se compartirán con todos los participantes del plenario para
mantener la transparencia. Los presidentes y vicepresidentes también fueron
invitados a una serie de reuniones interinstitucionales:

Estado del segundo borrador

El Código es un documento de orientación para los proveedores de modelos de IA
de uso general que demuestren el cumplimiento de la Ley de IA a lo largo de
todo el ciclo de vida de los modelos.

El segundo borrador se basa en trabajos anteriores y tiene como objetivo
proporcionar un Código «a prueba de futuro»; será especialmente relevante para
los modelos que se publiquen después del 2 de agosto de 2025, cuando comiencen
a aplicarse las nuevas normas sobre modelos de IA de uso general.

La primera parte del borrador del Código detalla las obligaciones de
transparencia y derechos de autor para todos los proveedores de modelos de IA
de uso general, con notables exenciones para los proveedores de ciertos
modelos de código abierto de acuerdo con la Ley de IA. En cuanto a la
plantilla para un resumen adecuado del contenido de los datos de
entrenamiento, se puede esperar una propuesta de la Oficina de IA a principios
del próximo año. La Oficina de IA tiene como objetivo tener en cuenta los
comentarios de los participantes del Código de Prácticas antes de que la
Comisión adopte oficialmente la plantilla.

La segunda parte del Código solo es relevante para un pequeño número de
proveedores de los modelos de IA de uso general más avanzados que podrían
plantear riesgos sistémicos, de conformidad con los criterios de clasificación
del artículo 51 de la Ley de IA. En este punto, el Código describe las medidas
para la evaluación y mitigación de riesgos sistémicos, incluidas las
evaluaciones de modelos, la notificación de incidentes y las obligaciones en
materia de ciberseguridad. La estructura del Código se adaptó para describir
los objetivos, los compromisos y las medidas (reemplazando la estructura del
borrador anterior, que consistía en objetivos, medidas y submedidas), e
incluir ejemplos preliminares de indicadores clave de desempeño (KPI).

También se intentó señalar claramente las obligaciones derivadas de la Ley de
IA, que el Código pretende especificar más a través de medidas concretas que
los signatarios se comprometen a adoptar para cumplir eficazmente con estas
obligaciones.

Según el REGLAMENTO EUROPEO DE IA (UE 2024/1689) (Guía práctica [PDF]), publicado en junio de 2024, el enfoque de la UE con respecto a la
inteligencia artificial se centra en la excelencia y la confianza, con el
objetivo de impulsar la investigación y la capacidad industrial, garantizando
al mismo tiempo la seguridad y los derechos fundamentales.

  1. ACCIÓN Y SUPERVISIÓN HUMANA. Se entiende que los sistemas de IA se
    desarrollan y utilizan como herramienta al servicio de las personas, que
    respeta la dignidad humana y la autonomía personal, y que funciona de manera
    que pueda ser controlada y vigilada adecuadamente por seres humanos.
  2. SOLIDEZ TÉCNICA Y SEGURIDAD. Los sistemas de IA se desarrollan y utilizan de
    manera que sean sólidos en caso de problemas y resilientes frente a los
    intentos de alterar el uso o el funcionamiento del sistema de IA para
    permitir su uso ilícito por terceros y reducir al mínimo los daños no
    deseados.
  3. GESTIÓN DE LA PRIVACIDAD Y DE LOS DATOS. Los sistemas de IA se desarrollan y
    utilizan de conformidad con normas en materia de protección de la intimidad
    y de los datos, al tiempo que tratan datos que cumplen normas estrictas en
    términos de calidad e integridad.
  4. TRANSPARENCIA. Los sistemas de IA se desarrollan y utilizan de un modo que
    permita una trazabilidad y explicabilidad adecuadas, y que, al mismo tiempo,
    haga que las personas sean conscientes de que se comunican o interactúan con
    un sistema de IA e informe debidamente a los responsables del despliegue
    acerca de las capacidades y limitaciones de dicho sistema de IA y a las
    personas afectadas acerca de sus derechos.
  5. 5. DIVERSIDAD, NO DISCRIMINACIÓN Y EQUIDAD. Los sistemas de IA se
    desarrollan y utilizan de un modo que incluya a diversos agentes y promueve
    la igualdad de acceso, la igualdad de género y la diversidad cultural, al
    tiempo que se evitan los efectos discriminatorios y los sesgos injustos
    prohibidos por el Derecho nacional o de la Unión.
  6. BIENESTAR SOCIAL Y AMBIENTAL. Los sistemas de IA se desarrollan y utilizan
    de manera sostenible y respetuosa con el medio ambiente, así como en
    beneficio de todos los seres humanos.
  7. RENDICIÓN DE CUENTAS. Supervisión y evaluación de los efectos a largo plazo
    en las personas, la sociedad y la democracia.

Fuente:
Digital Strategy

Ver fuente

Related Post