Brasil: ABES critica el texto del Senado sobre inteligencia artificial y advierte sobre restricciones en derechos de autor y entrenamiento.

Brasil: ABES critica el texto del Senado sobre inteligencia artificial y advierte sobre restricciones en derechos de autor y entrenamiento.

Críticas de la ABES al Proyecto de Ley del Senado Brasileño sobre Inteligencia Artificial: Implicaciones en Derechos de Autor y Entrenamiento de Modelos

La Asociación Brasileña de Empresas de Software (ABES) ha emitido una crítica contundente contra el texto preliminar de un proyecto de ley aprobado por la Comisión de Asuntos Económicos (CAE) del Senado Federal de Brasil, enfocado en la regulación de la inteligencia artificial (IA). Esta iniciativa legislativa, que busca establecer marcos normativos para el desarrollo y uso de sistemas de IA en el país, genera preocupaciones significativas en el sector tecnológico, particularmente en relación con las restricciones propuestas sobre los derechos de autor y el entrenamiento de modelos de IA. En un contexto donde la IA se posiciona como un pilar fundamental para la innovación digital, estas observaciones resaltan la necesidad de equilibrar la protección de derechos intelectuales con el avance tecnológico, evitando barreras que puedan perjudicar la competitividad de la industria brasileña.

Contexto Regulatorio de la Inteligencia Artificial en Brasil

El proyecto de ley en cuestión, conocido como PL 2.338/2023, representa un esfuerzo por parte del Senado brasileño para regular el ecosistema de IA, inspirado en marcos internacionales como el Reglamento de IA de la Unión Europea (EU AI Act). Este texto preliminar, aprobado en la CAE, clasifica los sistemas de IA según su nivel de riesgo —bajo, medio y alto— y establece obligaciones específicas para proveedores y usuarios. Para sistemas de alto riesgo, como aquellos utilizados en reclutamiento, vigilancia biométrica o decisiones crediticias, se exige transparencia, trazabilidad y evaluaciones de impacto en derechos fundamentales.

Sin embargo, el enfoque en la protección de datos y derechos de autor introduce complejidades técnicas. El entrenamiento de modelos de IA, un proceso que implica el procesamiento masivo de datasets públicos y privados, depende de la disponibilidad de información no restringida. En Brasil, donde el mercado de software genera miles de millones de reales anuales, según datos de la ABES, cualquier limitación en el acceso a datos para fines de machine learning podría ralentizar el desarrollo de aplicaciones en sectores como la ciberseguridad, la salud y la agricultura inteligente.

Desde una perspectiva técnica, el entrenamiento de modelos de IA, como redes neuronales profundas (deep neural networks), requiere volúmenes masivos de datos etiquetados o no etiquetados. Protocolos como el aprendizaje supervisado o no supervisado, implementados en frameworks como TensorFlow o PyTorch, se basan en la ingesta de corpus textuales, imágenes y señales que a menudo incluyen obras protegidas por derechos de autor. La Ley de Derechos de Autor brasileña (Ley 9.610/1998) ya establece excepciones para usos educativos y de investigación, pero el proyecto de ley propone extender estas restricciones, potencialmente exigiendo licencias explícitas para cualquier uso en entrenamiento de IA.

Análisis Técnico de las Restricciones Propuestas en Derechos de Autor

La ABES argumenta que el texto del Senado ignora precedentes internacionales y técnicos que permiten el “uso justo” (fair use) de materiales protegidos en el desarrollo de IA. En términos conceptuales, el entrenamiento de un modelo de lenguaje grande (LLM, por sus siglas en inglés), como los basados en arquitecturas transformadoras (transformers), involucra la optimización de parámetros a través de gradientes estocásticos (stochastic gradient descent). Este proceso no reproduce obras originales, sino que genera representaciones latentes (embeddings) que capturan patrones estadísticos, no copias literales.

Las restricciones propuestas podrían interpretarse como una ampliación de la Directiva Europea de Derechos de Autor en el Mercado Único Digital (DSM Directive), pero adaptada de manera más rígida. En Brasil, esto implicaría que empresas deban obtener permisos de titulares de derechos para datasets como Common Crawl o LAION-5B, comúnmente usados en entrenamiento global. Técnicamente, esto elevaría los costos computacionales y logísticos: por ejemplo, la validación de licencias para terabytes de datos podría requerir herramientas de auditoría automatizada, como blockchain para trazabilidad de derechos (e.g., protocolos IPFS con NFTs para metadatos de autoría).

Además, en el ámbito de la ciberseguridad, donde la IA se emplea para detección de anomalías en redes (usando algoritmos como autoencoders o GANs), las limitaciones en datos de entrenamiento podrían comprometer la robustez de los modelos. Un dataset restringido reduce la generalización, aumentando el riesgo de falsos positivos en sistemas de intrusión (IDS, Intrusion Detection Systems). La ABES destaca que Brasil, como economía emergente, necesita políticas que fomenten la innovación abierta, similar al enfoque de la OpenAI con datasets públicos, en lugar de barreras que favorezcan a jugadores globales con recursos para licencias masivas.

Implicaciones Operativas para el Entrenamiento de Modelos de IA

El entrenamiento de IA no es un proceso aislado; involucra pipelines complejos que incluyen preprocesamiento de datos, fine-tuning y despliegue en edge computing o cloud. Las restricciones en derechos de autor afectarían directamente la fase de preprocesamiento, donde se aplican técnicas como tokenización y filtrado de ruido. Por instancia, en modelos de visión por computadora para blockchain (e.g., verificación de transacciones en redes como Ethereum), datasets como ImageNet incluyen imágenes con posibles derechos de autor; exigir licencias paralizaría el desarrollo local.

Desde el punto de vista operativo, las empresas brasileñas enfrentarían desafíos en compliance: implementación de sistemas de gestión de datos (DMP, Data Management Platforms) que integren verificación de derechos, posiblemente usando estándares como GDPR para privacidad, pero extendidos a propiedad intelectual. Esto podría incrementar los costos en un 30-50%, según estimaciones de la industria, basadas en benchmarks de entrenamiento en GPUs como NVIDIA A100, donde el tiempo de cómputo ya es prohibitivo sin datos accesibles.

La ABES alerta sobre el impacto en startups y pymes, que representan el 70% de sus asociadas. Estas entidades dependen de datasets abiertos para prototipado rápido, utilizando herramientas como Hugging Face Transformers. Restricciones equivaldrían a una “brecha de innovación”, donde multinacionales como Google o Microsoft, con acuerdos preexistentes, mantendrían ventaja competitiva. En ciberseguridad, esto afectaría el desarrollo de IA para threat intelligence, donde modelos como BERT adaptados para análisis de logs requieren corpus textuales amplios sin filtros excesivos.

Riesgos y Beneficios de la Regulación Propuesta

Los riesgos son multifacéticos. Primero, un marco restrictivo podría violar principios de interoperabilidad en IA, contraviniendo estándares como los de la IEEE para ética en IA (IEEE 7000 series). Técnicamente, limitar el entrenamiento reduce la diversidad de datos, exacerbando sesgos en modelos (bias amplification), un problema crítico en aplicaciones de IA en justicia penal o hiring algorithms en Brasil.

En blockchain e IA integrada, como en smart contracts con oráculos de IA, las restricciones complicarían el uso de datos off-chain para predicciones. Protocolos como Chainlink dependen de feeds de datos no restringidos; en Brasil, esto podría frenar adopción en finanzas descentralizadas (DeFi), donde la IA optimiza yields farming mediante reinforcement learning.

No obstante, beneficios potenciales incluyen mayor protección para creadores locales, fomentando un ecosistema de datos éticos. La regulación podría impulsar estándares de IA explicable (XAI, Explainable AI), requiriendo logs de entrenamiento que documenten fuentes de datos, alineados con mejores prácticas como las del NIST AI Risk Management Framework. Esto beneficiaría la ciberseguridad al promover auditorías transparentes en modelos de detección de malware basados en IA.

  • Riesgos clave: Aumento de costos en entrenamiento (hasta 40% por licencias), reducción en innovación local, sesgos amplificados en modelos por datasets limitados.
  • Beneficios clave: Fortalecimiento de derechos de autor, incentivos para datasets sintéticos generados por IA (e.g., usando GANs para datos anónimos), alineación con regulaciones globales para exportación de software.

Comparación con Marcos Internacionales y Recomendaciones Técnicas

En contraste con el EU AI Act, que permite excepciones para investigación en IA de bajo riesgo, el texto brasileño parece más prescriptivo en derechos de autor, similar a la postura de la SAG-AFTRA en EE.UU. respecto a IA generativa en entretenimiento. La ABES recomienda adoptar un enfoque híbrido: excepciones para entrenamiento no comercial, inspirado en el fair use de la DMCA (Digital Millennium Copyright Act).

Técnicamente, se sugiere la implementación de federated learning para mitigar restricciones, donde modelos se entrenan en dispositivos distribuidos sin centralizar datos protegidos. Frameworks como TensorFlow Federated permiten esto, preservando privacidad y derechos. En blockchain, integrar IA con zero-knowledge proofs (ZKPs) podría verificar el uso de datos sin revelar contenidos, usando protocolos como zk-SNARKs en redes como Polygon.

Para ciberseguridad, recomendaciones incluyen estándares como ISO/IEC 27001 para gestión de riesgos en IA, asegurando que regulaciones no comprometan la resiliencia cibernética. La ABES insta a audiencias públicas para refinar el texto, incorporando input de expertos en machine learning y derecho digital.

Implicaciones para la Industria Tecnológica Brasileña

La industria de software en Brasil, con exportaciones superiores a 6 mil millones de dólares en 2022 según la ABES, depende de IA para diferenciarse en mercados globales. Restricciones en entrenamiento podrían reducir la participación en cadenas de valor de IA, afectando sectores como el agritech, donde modelos de IA para predicción de cosechas usan datos satelitales con metadatos protegidos.

En términos de talento, Brasil cuenta con hubs como el de São Paulo y Recife, pero regulaciones restrictivas desincentivarían inversión en R&D. Empresas como Nubank o iFood, que integran IA en operaciones, enfrentarían desafíos en escalabilidad. La integración con blockchain para IA descentralizada (DeAI) ofrece una salida: plataformas como SingularityNET permiten entrenamiento colaborativo sin violaciones de derechos, usando tokens para compensación de datos.

Desde la ciberseguridad, la regulación podría fortalecer defensas contra IA adversarial, pero solo si equilibra acceso a datos. Ataques como data poisoning en entrenamiento requieren datasets robustos; limitaciones las harían vulnerables.

Conclusiones y Perspectivas Futuras

En resumen, las críticas de la ABES al proyecto de ley del Senado subrayan la tensión entre protección de derechos de autor y el impulso a la innovación en IA. Un equilibrio adecuado requeriría excepciones técnicas para entrenamiento, promoviendo estándares abiertos y herramientas como aprendizaje federado para mitigar riesgos. Brasil, como líder emergente en tecnología latinoamericana, debe priorizar marcos que fomenten la competitividad sin comprometer la ética. Finalmente, el diálogo entre legisladores, industria y academia será clave para una regulación que impulse el ecosistema de IA sostenible y seguro.

Para más información, visita la fuente original.

Comentarios

Aún no hay comentarios. ¿Por qué no comienzas el debate?

Deja una respuesta