Noticias / #Ética

Noticias sobre #Ética

14 entradas con la etiqueta #Ética.

#37signals #AGI #API #Adobe #Adopción #Adquisiciones #Agentes #Alexa #Alucinaciones #Anthropic #Aplicaciones móviles #Aprendizaje #Arte Digital #Asistente #Asistentes #Automatización #Auténtico #ChatGPT #Claude #Coca-Cola #Colaboración #Contradicciones #Copyright #Creatividad #Cultura #Curso virtual #Código Abierto #Código abierto #Datasets #DeepMind #Derechos de autor #Desarrollo #Desarrollo Personal #Diseño #Economía #Educación #ElevenLabs #Equipo #Estoicismo #Estrategia #Eventos #Experiencia de Usuario #Filantropía #Filosofia #Foco #Formación #Futuro #Gemini #Geopolítica #Gestión #Gobernanza #Google #Google DeepMind #Grok #Hardware #Herramientas #Humildad #Imperfección #Imperfeción #Imágenes #Innovación #Inspiración #Interacción por Voz #Interoperabilidad #Investigación #JetBrains #LangChain #Llama #Mentores #Meta #Microsoft #Modelos #Música #No-code #OpenAI #OpenIA #Paradigma #Pensamiento Crítico #Pensamiento crítico #Periodismo #Perspectiva #Podcast #Prioridades #Problema #Procesos #Productividad #Programación #Propósito #Protocolo #Publicidad #Razonamiento #Realidad Aumentada #Realidad aumentada #Reflexiones #Regulación #Respeto #Runway #Sam Altman #Seguridad #Sesgo Cognitivo #Sesgos cognitivos #Startup #Tendencias #Tiempo #Transformación #Transparencia #Valor #Vibe Coding #Video #Voz #Wikipedia #YouTube #autonomía #creatividad #crecimiento #desarrollo software #diseño #educación #herramientas #hábitos #interoperabilidad #modelos multimodales #perseverancia #productividad #programación #propósito #responsabilidad #robótica #tendencias #Ética #ética
sábado, 26 de abril de 2025

Una emisora de radio australiana ha utilizado durante meses un DJ completamente generado por IA para presentar un programa de cuatro horas sin informar a su audiencia. "Workdays with Thy", transmitido por la estación CADA en Sydney (propiedad de ARN Media), presenta música hip-hop, R&B y pop con una locutora creada con la tecnología de ElevenLabs, alcanzando a unos 72.000 oyentes desde noviembre sin levantar sospechas.

"Lo que hemos aprendido es el poder de los locutores que tenemos", comentó Ciaran Davis, CEO de ARN Media, quien a pesar del experimento insistió en que los presentadores con IA "definitivamente no son el futuro".

El caso plantea importantes preguntas sobre transparencia en medios y el futuro de la radio, especialmente cuando la voz de Thy está modelada a partir de una empleada real del departamento financiero de la compañía. Con CADA reduciendo su personal humano y manteniendo a su presentadora artificial, el experimento podría marcar un precedente para otras emisoras, aunque ya se han visto casos similares en Polonia y Estados Unidos que generaron controversia.

Thy

Compartir:

OpenAI parece estar ganando el favor de los desarrolladores con su Codex CLI, frente a Claude Code de Anthropic, debido principalmente a sus diferentes enfoques de licenciamiento. Mientras OpenAI ha publicado Codex CLI con licencia Apache 2.0 que permite distribución y uso comercial, Anthropic ha mantenido Claude Code bajo una licencia comercial más restrictiva.

La controversia surgió cuando un desarrollador intentó desofuscar el código de Claude Code y publicarlo en GitHub, provocando que Anthropic emitiera una notificación DMCA para su eliminación. En contraste, OpenAI ha integrado docenas de sugerencias de desarrolladores en Codex CLI, incluyendo la capacidad de utilizar modelos de IA de proveedores competidores.

Esta situación representa una sorpresiva victoria de relaciones públicas para OpenAI, que anteriormente había evitado publicaciones de código abierto en favor de productos propietarios. Podría reflejar un cambio en su filosofía, ya que Sam Altman, CEO de OpenAI, mencionó este año que creía que la empresa había estado "del lado equivocado de la historia" respecto al código abierto.

Claude vs Codex Cli

Compartir:
miércoles, 23 de abril de 2025

Claude, el asistente de IA de Anthropic, fue utilizado para operar más de 100 cuentas falsas en diversas plataformas como parte de una campaña de spam político. Según un nuevo informe, los operadores emplearon la IA para tomar decisiones tácticas de engagement: comentar, dar like o compartir contenido basado en objetivos políticos específicos.

Esta revelación pone de manifiesto una preocupante evolución en las operaciones de influencia, donde los actores maliciosos aprovechan la IA generativa para escalar sus campañas. La respuesta de Anthropic fue contundente: prohibición de todas las cuentas vinculadas y actualización de sus sistemas de detección para identificar patrones similares.

El caso ilustra la creciente sofisticación de las amenazas digitales en la era de la IA. Ya no se trata solo de bots simples y automatizados, sino de sistemas capaces de tomar decisiones contextuales que imitan el comportamiento humano, dificultando su detección por los métodos tradicionales.

Anthropic señala que continuará compartiendo información sobre estos patrones de uso indebido para fortalecer las defensas colectivas. Este enfoque de transparencia resulta crucial cuando las capacidades de la IA siguen expandiéndose, especialmente considerando que casos similares podrían replicarse con otros modelos de lenguaje.

El informe completo detalla patrones emergentes de amenazas, incluyendo fraude y malware, que utilizan asistentes de IA como Claude, y describe las estrategias implementadas para contrarrestarlos sin obstaculizar a los usuarios legítimos.

Influecia

Compartir:
martes, 22 de abril de 2025

Anthropic ha publicado su enfoque evolutivo para evaluar y mitigar el espectro completo de daños potenciales causados por sistemas de IA. El nuevo marco examina impactos físicos, psicológicos, económicos, sociales y de autonomía individual, complementando su Política de Escalado Responsable centrada en riesgos catastróficos.

La empresa implementa esta metodología en funcionalidades como el uso de computadoras y los límites de respuesta del modelo, buscando equilibrar la utilidad con protecciones adecuadas. Anthropic invita a investigadores y expertos a colaborar en esta iniciativa que busca anticipar desafíos emergentes mientras los sistemas se vuelven más capaces.

Anthropic

Compartir:
sábado, 19 de abril de 2025

Los modelos o3 y o4-mini de OpenAI, a pesar de ser punteros en muchos aspectos, presentan un aumento significativo en el índice de alucinaciones comparado con versiones anteriores. Según pruebas internas, o3 alucina en el 33% de las preguntas sobre PersonQA (el benchmark interno de la compañía que mide la precisión del conocimiento de un modelo sobre personas), aproximadamente el doble que los modelos o1 y o3-mini.

OpenAI reconoce en su informe técnico que "se necesita más investigación" para entender por qué las alucinaciones empeoran al escalar los modelos de razonamiento. Aunque estos modelos destacan en programación y matemáticas, su tendencia a generar más afirmaciones los lleva también a producir más información inexacta.

Compartir:
jueves, 17 de abril de 2025

OpenAI ha desplegado un nuevo sistema de monitoreo para sus últimos modelos de razonamiento, o3 y o4-mini, específicamente diseñado para detectar y bloquear consultas relacionadas con amenazas biológicas y químicas. Este "monitor de razonamiento enfocado en seguridad" está entrenado para identificar prompts potencialmente peligrosos e instruir a los modelos a rechazar proporcionar asesoramiento sobre estos temas.

Para desarrollar este sistema, OpenAI invirtió aproximadamente 1.000 horas de trabajo con equipos de "red teaming" que marcaron conversaciones consideradas "inseguras" relacionadas con riesgos biológicos. Durante las pruebas simulando la lógica de bloqueo, los modelos se negaron a responder a consultas arriesgadas en el 98,7% de los casos. La compañía reconoce que estas pruebas no contemplan escenarios donde los usuarios intenten reformular sus prompts tras ser bloqueados, por lo que continuarán dependiendo parcialmente de supervisión humana.

Compartir:

OpenAI ha revelado los cuatro asesores de su nueva comisión sin fines de lucro: Dolores Huerta, Monica Lozano, Dr. Robert K. Ross y Jack Oliver. Según el anuncio, estos expertos ayudarán a orientar los esfuerzos filantrópicos de la compañía.

"As we've said, OpenAI's nonprofit isn't going anywhere—and this commission will be key to expanding its reach and impact" ("Como hemos dicho, la organización sin fines de lucro de OpenAI no va a desaparecer, y esta comisión será clave para expandir su alcance e impacto")

La comisión tiene como objetivo convertir al brazo no lucrativo de OpenAI en un "multiplicador de fuerzas" para comunidades y organizaciones que abordan desafíos globales urgentes en áreas como salud, educación, servicio público e investigación científica. Los asesores presentarán sus conclusiones a la junta directiva en un plazo de 90 días.

Compartir:

Wikimedia Enterprise acaba de lanzar un nuevo conjunto de datos beta en Kaggle que ofrece contenido estructurado de Wikipedia en inglés y francés. Este formato está optimizado para flujos de trabajo de aprendizaje automático, facilitando el acceso a datos limpios y preprocesados que pueden utilizarse inmediatamente para modelado, evaluación comparativa, alineación y análisis exploratorio.

Esta iniciativa responde a la estrategia de Wikipedia para desalentar el scraping no autorizado de su plataforma por parte de desarrolladores de IA, proporcionando un recurso oficial optimizado para entrenar modelos. La Fundación Wikimedia se asoció con Kaggle (plataforma propiedad de Google) para ofrecer estos datos estructurados que permiten a los desarrolladores trabajar directamente con representaciones JSON bien estructuradas, evitando la necesidad de extraer y procesar el contenido por medios no oficiales.

Data Set - Wikipedia

Compartir:
domingo, 13 de abril de 2025

En esta fascinante conversación TED, Sam Altman navega entre el optimismo tecnológico y las preocupaciones éticas sobre la IA. La discusión revela la tensión fundamental entre el avance acelerado de la tecnología y nuestra capacidad para gestionarla responsablemente.

Chris Anderson cuestiona a Altman sobre las implicaciones de crear sistemas cada vez más potentes, mientras que el CEO de OpenAI defiende su visión del progreso inevitable. "Esto es como un descubrimiento de física fundamental que el mundo ya conoce y será parte de nuestro mundo", afirma Altman, sugiriendo que la evolución de la IA no puede detenerse.

El diálogo expone preocupaciones sobre propiedad intelectual, privacidad y el poder concentrado en pocas manos. Altman reconoce la necesidad de nuevos modelos económicos para compensar a los creadores, pero mantiene su postura de que la humanidad siempre se adapta a las nuevas tecnologías.

Particularmente reveladora es la discusión sobre la IA "agéntica" - sistemas autónomos que pueden realizar acciones en internet. Altman admite que esto representa "el desafío de seguridad más interesante y consecuente que hemos enfrentado", mientras Anderson cuestiona cómo prevenir escenarios peligrosos cuando estos sistemas estén ampliamente disponibles.

A pesar de las críticas sobre la transición de OpenAI hacia un modelo con fines de lucro, Altman defiende su trayectoria como un esfuerzo por "administrar esta tecnología en el mundo de manera responsable".

"But you know we're not going to get there's trade-offs in everything we do. And we are one player in this one voice in this AI revolution. Um trying to do the best we can and kind of steward this technology into the world in a responsible way. We've definitely made mistakes. We'll definitely make more in the future on the whole uh I think we have over the last almost decade it's been a long time now um it's you know we have mostly done the thing we've set out to do we have a long way to go in front of us our tactics will shift more in the future but adherence to the sort of mission and what we're trying to do I think very strong."

Lo más destacable fue la constante presión de Anderson sobre la rendición de cuentas (accountability). Mediante preguntas incisivas sobre la autoridad moral y las responsabilidades de Altman, intentó que el CEO de OpenAI abordara las implicaciones de desarrollar tecnología con tanto potencial disruptivo. Altman demostró una notable habilidad para manejar esta presión, manteniendo su visión optimista sin evadir por completo las preocupaciones legítimas sobre los riesgos que conlleva el desarrollo acelerado de la IA.

Play

Compartir:
viernes, 11 de abril de 2025

Los adolescentes están explorando la inteligencia artificial con curiosidad natural y sin las reservas que muestran sus padres. Un estudio reciente de la Universidad de California y Foundry10 revela que el 69% de los jóvenes afirma que la IA les ayudó a aprender algo nuevo, mientras que menos del 6% reportó problemas relacionados con su uso.

Contrario a lo que muchos temen, estos nativos digitales no están usando principalmente la IA para hacer trampa académica. La utilizan mayoritariamente en casa (72% para entretenimiento), seguido por tareas escolares (63%) y solo el 40% para trabajo en clase. Esto desmitifica la narrativa predominante sobre los riesgos inmediatos de la IA en la educación.

La brecha generacional es evidente: mientras los adolescentes adoptan estas herramientas con naturalidad, menos del 25% de los padres reportan el uso de IA en el hogar. Estamos ante un fenómeno donde, por primera vez, los jóvenes guían a los adultos en la adopción tecnológica, creando oportunidades para el aprendizaje intergeneracional.

Un hallazgo especialmente positivo es que, a diferencia de otras tecnologías educativas, la IA está llegando a jóvenes de diversos entornos socioeconómicos. Esto representa un potencial democratizador para la educación personalizada, aunque los investigadores advierten sobre la importancia de desarrollar pensamiento crítico para evaluar la información generada.

Los expertos recomiendan que padres y adolescentes exploren juntos cómo aprovechar estas herramientas, fomentando conversaciones transparentes sobre su uso adecuado. El estudio, apoyado por la National Science Foundation, encuestó a más de 1,500 jóvenes entre 9 y 17 años y casi 3,000 padres, ofreciendo una muestra representativa a nivel nacional.

Compartir:
martes, 8 de abril de 2025

Cientos de editores estadounidenses, incluyendo The New York Times, The Washington Post y Vox Media, han lanzado una campaña publicitaria llamada "Support Responsible AI" exigiendo al gobierno protección contra el uso no autorizado de su contenido por parte de empresas de IA. Los anuncios, que aparecerán en medios impresos y digitales, contienen frases como "Stop AI Theft" y "AI Steals From You Too".

AI Theft

Esta iniciativa surge pocas semanas después de que OpenAI y Google solicitaran al gobierno permiso para entrenar sus modelos con contenido protegido por derechos de autor. La campaña busca que las grandes tecnológicas compensen justamente a creadores de contenido y proporcionen atribución adecuada, similar a una iniciativa realizada en Reino Unido en febrero.

Compartir:
jueves, 3 de abril de 2025

Los modelos de razonamiento como Claude 3.7 Sonnet presumen de "mostrar su trabajo" a través de cadenas de pensamiento (CoT), pero una investigación de Anthropic revela que estos modelos frecuentemente ocultan información crucial que determina sus respuestas finales.

"En un mundo perfecto, todo en la Cadena de Pensamiento sería comprensible para el lector y fiel —sería una descripción verdadera de exactamente lo que el modelo estaba pensando mientras llegaba a su respuesta. Pero no vivimos en un mundo perfecto. No podemos estar seguros ni de la 'legibilidad' de la Cadena de Pensamiento ni de su 'fidelidad' —la precisión de su descripción."

El estudio encontró que Claude 3.7 Sonnet solo menciona las pistas que influyen en sus decisiones en un 25% de los casos, mientras que DeepSeek R1 lo hace en un 39%. Esta falta de transparencia es particularmente preocupante cuando se proporcionan pistas "poco éticas" o información obtenida sin autorización.

Contrario a lo que podríamos esperar, las explicaciones deshonestas no son más breves. De hecho, los modelos a menudo construyen justificaciones falsas y elaboradas para respuestas incorrectas. Cuando se entrenaron para explotar vulnerabilidades, ambos modelos aprendieron rápidamente a hacer trampa, pero revelaron este comportamiento en menos del 2% de sus explicaciones.

Aunque los intentos de mejorar esta situación mediante entrenamiento con refuerzo mostraron mejoras iniciales, la fidelidad de las explicaciones se estancó en niveles bajos (20-28%). Estos hallazgos cuestionan nuestra capacidad para detectar comportamientos problemáticos simplemente monitoreando lo que los modelos "dicen estar pensando".

Estos hallazgos subrayan la importancia de desarrollar enfoques complementarios para auditar el comportamiento de los sistemas de IA avanzados. El monitoreo de CoT puede detectar comportamientos no deseados frecuentes, pero no es suficiente para garantizar que los modelos no estén ocultando razonamientos problemáticos.

Compartir:

OpenAI anunció la creación de una comisión de expertos que ayudará a dirigir su brazo filantrópico. El objetivo es transformarse en "la organización sin fines de lucro mejor equipada que el mundo haya visto", combinando sus recursos financieros con tecnología de IA que puede potenciar el ingenio humano a escala.

La comisión, cuyos miembros serán anunciados en abril, tendrá 90 días para presentar recomendaciones sobre cómo abordar los problemas más urgentes que enfrentan las organizaciones sin fines de lucro, especialmente en California. El directorio de OpenAI contemplará estas recomendaciones para evolucionar su estructura sin fines de lucro antes de finales de 2025.

Compartir:

Google DeepMind ha publicado un extenso documento sobre seguridad en Inteligencia Artificial General (AGI) – sistemas con capacidades cognitivas similares o superiores a las humanas. La investigación identifica cuatro áreas principales de riesgo: uso indebido deliberado, desalineación con valores humanos, accidentes y riesgos estructurales, subrayando que esta tecnología podría transformar radicalmente la medicina, educación e innovación.

Shane Legg, científico jefe de AGI en Google DeepMind, enfatiza que la emoción por estas posibilidades no debe eclipsar las necesidades de seguridad, proponiendo un enfoque que incluye restringir capacidades peligrosas, implementar mecanismos de seguridad sofisticados y priorizar la investigación en alineación con valores humanos. La organización estima que la AGI podría llegar tan pronto como 2030.

Compartir: