Noticias de IA #regulación

Análisis y comentarios sobre la evolución de la inteligencia artificial.

203 noticias
Actualizado 12 jun, 00:00
Filtros activos: #regulación Limpiar filtros

lunes, 12 de mayo de 2025

Análisis
AP News

En un movimiento sin precedentes, la administración Trump ha destituido a Shira Perlmutter, directora de la Oficina de Copyright de EE.UU., días después de despedir a Carla Hayden, directora de la Biblioteca del Congreso. Este cambio abrupto de liderazgo ocurre en un momento crítico para la regulación de la inteligencia artificial en relación con derechos de autor.

La salida de Perlmutter es especialmente significativa por su reciente informe que examina si las empresas de IA pueden usar materiales protegidos para entrenar sus sistemas. El despido llega apenas días después de que supuestamente "se negara a aprobar automáticamente los esfuerzos de Elon Musk para extraer grandes cantidades de obras con copyright para entrenar modelos de IA". Notablemente, Musk, fundador de una startup de IA, ha declarado públicamente que las leyes de propiedad intelectual deberían abolirse.

Su enfoque, basado en "la centralidad de la creatividad humana", estableció que mientras la creatividad expresada mediante sistemas de IA merece protección, extender esta protección a material cuyos elementos expresivos son determinados por máquinas "socavaría los objetivos constitucionales del copyright".

El partido demócrata ha condenado enérgicamente esta destitución, calificándola como "una toma de poder descarada y sin precedentes sin base legal". Para desarrolladores de IA y creadores de contenido, estos cambios podrían reconfigurar profundamente el panorama regulatorio en un momento donde los límites entre creación humana y generada por IA están siendo intensamente debatidos, con posibles implicaciones directas para el futuro de las tecnologías generativas.

Copyright

Compartir:
Análisis
Financial Times

Aseguradores de Lloyd's de Londres acaban de lanzar pólizas específicas para cubrir pérdidas empresariales causadas por el mal funcionamiento de herramientas de IA. Esta innovación, desarrollada por la startup Armilla, busca proteger a las compañías de demandas y costos legales cuando sus sistemas de IA no cumplen con las expectativas acordadas.

Las "alucinaciones" de los modelos de lenguaje han pasado de ser una curiosidad técnica a un riesgo financiero real. Casos como Air Canada, obligada a honrar descuentos inventados por su chatbot, o Virgin Money, cuyo asistente virtual reprendió a un cliente por usar la palabra "virgin", demuestran las costosas consecuencias de implementar IA sin las protecciones adecuadas.

Lo interesante de estas pólizas es que no cubren cualquier error, sino específicamente cuando el rendimiento de la IA cae por debajo de las expectativas iniciales. Por ejemplo, si un chatbot proporcionaba información correcta el 95% del tiempo y luego baja al 85%, la cobertura se activaría. Esto establece un nuevo estándar de responsabilidad para proveedores y usuarios de IA.

Los expertos señalan que las pólizas tecnológicas existentes incluyen límites muy bajos para incidentes relacionados con IA (apenas $25,000 dentro de coberturas de $5 millones). Con empresas acelerando la adopción de IA para mejorar eficiencia, esta innovación del sector asegurador podría facilitar implementaciones más seguras y responsables.

Este desarrollo marca el inicio de un nuevo mercado: la gestión financiera del riesgo asociado a las IA generativas. Los seguros ya no solo protegen contra riesgos tradicionales, sino también contra la impredecibilidad de algoritmos que aprenden y evolucionan continuamente.

Insurance

Compartir:

lunes, 5 de mayo de 2025

Análisis
OpenAI

OpenAI ha decidido mantener su estructura sin fines de lucro, abandonando planes de convertirse en una empresa tradicional. El anuncio llegó tras "escuchar a líderes cívicos y mantener diálogos constructivos con las oficinas del Fiscal General de Delaware y California", quienes tienen supervisión sobre el estatus no lucrativo de la organización.

La junta directiva sin fines de lucro (la misma que brevemente despidió a Sam Altman) seguirá supervisando su subsidiaria comercial, que cambiará de ser una LLC con ganancias limitadas a una Corporación de Beneficio Público (PBC), similar a Anthropic y xAI. Con esta nueva estructura, inversores y empleados tendrán acciones regulares sin límite en su apreciación, facilitando la captación de capital futuro.

La organización sin fines de lucro recibirá una participación accionaria en la subsidiaria PBC, que aumentará conforme crezca la valoración de la empresa. La junta nombrará un directorio para la PBC cuando se establezca oficialmente, manteniendo el control último sobre la compañía. Curiosamente, no hay planes para que Sam Altman, quien nunca ha tenido participación directa en OpenAI, reciba acciones.

En un memo a los empleados, Altman explicó que la estructura anterior que limitaba los retornos "tenía sentido cuando parecía que podría haber un esfuerzo dominante en AGI, pero no en un mundo con muchas grandes compañías de AGI". La empresa reafirma su compromiso con una "IA democrática" que ponga "herramientas increíbles en manos de todos", incluyendo la posibilidad de código abierto para modelos muy capaces.

Esta evolución estructural busca tres objetivos: mantener el control sin fines de lucro (decisión tomada tras conversaciones con líderes cívicos y fiscales generales), transformar la LLC con fines de lucro en una Corporación de Beneficio Público con la misma misión, y modificar la estructura de capital para que todos tengan acciones normales en lugar del complejo modelo anterior de ganancias limitadas.

raices

Compartir:

martes, 8 de abril de 2025

Micropost
The Verge

Cientos de editores estadounidenses, incluyendo The New York Times, The Washington Post y Vox Media, han lanzado una campaña publicitaria llamada "Support Responsible AI" exigiendo al gobierno protección contra el uso no autorizado de su contenido por parte de empresas de IA. Los anuncios, que aparecerán en medios impresos y digitales, contienen frases como "Stop AI Theft" y "AI Steals From You Too".

AI Theft

Esta iniciativa surge pocas semanas después de que OpenAI y Google solicitaran al gobierno permiso para entrenar sus modelos con contenido protegido por derechos de autor. La campaña busca que las grandes tecnológicas compensen justamente a creadores de contenido y proporcionen atribución adecuada, similar a una iniciativa realizada en Reino Unido en febrero.

Compartir:

jueves, 3 de abril de 2025

Micropost
DeepMind

Google DeepMind ha publicado un extenso documento sobre seguridad en Inteligencia Artificial General (AGI) – sistemas con capacidades cognitivas similares o superiores a las humanas. La investigación identifica cuatro áreas principales de riesgo: uso indebido deliberado, desalineación con valores humanos, accidentes y riesgos estructurales, subrayando que esta tecnología podría transformar radicalmente la medicina, educación e innovación.

Shane Legg, científico jefe de AGI en Google DeepMind, enfatiza que la emoción por estas posibilidades no debe eclipsar las necesidades de seguridad, proponiendo un enfoque que incluye restringir capacidades peligrosas, implementar mecanismos de seguridad sofisticados y priorizar la investigación en alineación con valores humanos. La organización estima que la AGI podría llegar tan pronto como 2030.