Noticias / #Ética

Noticias sobre #Ética

21 entradas con la etiqueta #Ética.

#37signals #AGI #API #Adobe #Adopción #Adquisiciones #Agentes #Alexa #Alucinaciones #Anthropic #Aplicaciones móviles #Aprendizaje #Arquitectura #Arte Digital #Asistente #Asistentes #Autenticidad #Automatización #Auténtico #ChatGPT #Claude #Coca-Cola #Colaboración #Comunicación #Comunidad #Contradicciones #Copyright #Creatividad #Crianza #Cultura #Cultura Digital #Curso virtual #Código Abierto #Código abierto #Datasets #DeepMind #Derechos de Autor #Derechos de autor #Desarrollo #Desarrollo Personal #Diferenciación #Diseño #Economía #Educación #Efectividad #ElevenLabs #Equipo #Estoicismo #Estrategia #Eventos #Experiencia de Usuario #Filantropía #Filosofia #Fintech #Foco #Formación #Futuro #Gemini #Geopolítica #Gestión #Gobernanza #Google #Google DeepMind #Grok #Hardware #Herramientas #Humanismo #Humano #Humildad #Impacto #Imperfección #Imperfeción #Imágenes #Innovación #Inspiración #Interacción por Voz #Interoperabilidad #Investigación #JetBrains #LangChain #Liderazgo #Llama #MCP #MCP Server #Mascotas #Mediocridad #Mentalidad Digital #Mentores #Meta #Microsoft #Mindfulness #Modelos #Música #No-code #OpenAI #OpenIA #Optimización #Pagos Inteligentes #Paradigma #Pensamiento Crítico #Pensamiento crítico #Periodismo #Perspectiva #Podcast #Prioridades #Problema #Procesos #Productividad #Profesionalismo #Programación #Propósito #Protocolo #Publicidad #Razonamiento #Realidad Aumentada #Realidad aumentada #Reflexiones #Regulación #Respeto #Riesgo #Robótica #Runway #Sam Altman #Seguridad #Sesgo Cognitivo #Sesgos cognitivos #Startup #Streaming #Tecnología #Tendencias #Tiempo #Transformación #Transparencia #Valor #Vibe Coding #Video #Voz #Wikipedia #YouTube #Zen #automatización #autonomía #creatividad #crecimiento #desarrollo software #diseño #ecosistema #educación #geopolítica #herramientas #hábitos #interoperabilidad #modelos multimodales #perseverancia #productividad #programación #propósito #responsabilidad #robótica #seguridad #tendencias #transformación digital #Ética #ética
lunes, 19 de mayo de 2025

A medida que Anthropic alcanza una valoración de $61 mil millones, su CEO Dario Amodei enfrenta una contradicción fundamental: crear la IA más poderosa del mundo de forma responsable, mientras compite en un mercado que premia la velocidad sobre la precaución.

En febrero, ante el lanzamiento inminente de Claude 3.7 Sonnet, el equipo de seguridad alertó de que el modelo podría ayudar a crear bioarmas. A pesar de la presión competitiva y estar en medio de una ronda de financiación multimillonaria, Amodei retrasó el lanzamiento para pruebas adicionales. La decisión ilustra la filosofía diferenciadora de Anthropic en el ecosistema actual.

El gran desafío de Anthropic se refleja en su marco de niveles de seguridad (ASL). Sus modelos actuales están catalogados como ASL-2, pero la empresa anticipa alcanzar pronto el nivel ASL-3, donde los sistemas podrían dar instrucciones útiles para crear armas biológicas. Esta progresión representa tanto su avance tecnológico como un peligroso punto de inflexión que exigirá implementar salvaguardas adicionales para evitar usos maliciosos.

Mientras tanto, Anthropic está generando $2 mil millones en ingresos anuales, duplicando cifras de hace solo cuatro meses. Amodei predice que la IA pronto revolucionará campos como la programación, donde ya está reemplazando tareas humanas, y eventualmente transformará la medicina, duplicando potencialmente la esperanza de vida humana.

Para un análisis completo sobre cómo Dario Amodei intenta ganar la carrera de la IA sin comprometer los principios éticos de Anthropic, te invito a leer el artículo original de Shirin Ghaffary en Bloomberg: "Can Anthropic Win the AI Race Without Losing Its Soul?"

Dario contemplativo

Compartir:

"Escribe GRATIS en los comentarios." "Conecta para recibir mi sistema probado." "No puedo revelarlo todo, firmé un NDA."

Las promesas brillan en tu feed como monedas en el suelo. Y la gente sigue recogiéndolas.

Detrás de cada una hay un patrón inquietantemente familiar.

Cuando alguien ha vivido lo que predica, sus palabras llevan el peso de la experiencia. Lo auténtico tiene aristas, contradicciones resueltas, cicatrices visibles.

Los vendedores de humo ahora usan la IA generativa como quien usa maquillaje excesivo. No para resaltar lo que existe, sino para cubrir lo que falta.

Ese flujo de trabajo "revolucionario" que te venden podría haber sido un simple componente de correspondencia de Word 97. Algo que siempre estuvo ahí, pero pocos exploramos.

Como conquistadores con espejitos, su negocio florece en nuestra ignorancia de lo que ya tenemos.

Fíjate en las contradicciones: hablan de "movimientos" mientras persiguen seguidores. Critican la validación mientras exhiben métricas. Prometen libertad mientras construyen dependencia.

El contenido generado sin criterio tiene una cualidad peculiar: es demasiado perfecto, demasiado simétrico. Como un rostro sin expresiones, algo no termina de conectar.

¿Has notado cómo estos gurús nunca pueden explicar sus métodos abiertamente? El NDA conveniente. El "sistema propietario". La "estrategia secreta".

La realidad es más simple: no hay secreto.

Las herramientas amplifican lo que ya eres. Si tu mensaje es vacío, la IA generará vacío a escala. Si tu propósito es claro, la tecnología te ayudará a llegar más lejos.

Lo que realmente necesitamos no es más contenido amplificado, sino más reflexión genuina. No más "hacks", sino fundamentos sólidos.

La diferencia entre un maestro y un vendedor de humo nunca ha sido la herramienta que utiliza, sino la verdad que entrega.

Y la verdad, incluso cuando incomoda, siempre conecta más profundo que la perfección vacía.

Lo verdaderamente valioso rara vez necesita esconderse detrás de un formulario.

El conocimiento que transforma nunca teme ser compartido.

Vendedor de humo

Compartir:
domingo, 18 de mayo de 2025

xAI ha publicado en GitHub los prompts de sistema que utiliza para Grok, su asistente de IA, tras un cambio "no autorizado" que provocó una serie de respuestas controversiales sobre "genocidio blanco" en la plataforma X. Esta decisión brinda una ventana única hacia el funcionamiento interno de Grok y sus directrices de comportamiento.

Entre las instrucciones reveladas destacan frases como "eres extremadamente escéptico" y "no te sometes ciegamente a la autoridad o medios convencionales", mostrando el enfoque diferenciado de xAI respecto a otras empresas. Anthropic y xAI son de las pocas compañías importantes que han hecho públicos sus prompts de sistema.

Grok Prompts

Compartir:
sábado, 17 de mayo de 2025

La inteligencia artificial no está haciendo a los estudiantes más perezosos, sino más inteligentes. Un riguroso metaanálisis de 51 estudios experimentales desmiente uno de los mayores temores sobre la IA en educación, revelando que ChatGPT impulsa significativamente tanto el rendimiento como el pensamiento crítico.

Hallazgos clave:

  • Gran impacto positivo en el rendimiento académico (0.867 DS)
  • Efecto moderadamente positivo en la percepción del aprendizaje (0.456 DS)
  • Mejora significativa del pensamiento de orden superior (0.457 DS)

Las claves del éxito:

  • Las intervenciones de 4-8 semanas muestran resultados óptimos
  • El aprendizaje basado en problemas obtiene mayores beneficios
  • ChatGPT como tutor inteligente potencia más el pensamiento crítico que como simple herramienta
  • Los cursos STEM experimentan mayor desarrollo del pensamiento de orden superior

Estos hallazgos son cruciales porque contradicen la narrativa común de que la IA simplemente facilita el trabajo sin promover aprendizaje profundo. La evidencia científica ahora respalda el uso estratégico de ChatGPT como aliado educativo valioso.

ChatGPT 51 investigaciones

Compartir:
lunes, 12 de mayo de 2025

Aseguradores de Lloyd's de Londres acaban de lanzar pólizas específicas para cubrir pérdidas empresariales causadas por el mal funcionamiento de herramientas de IA. Esta innovación, desarrollada por la startup Armilla, busca proteger a las compañías de demandas y costos legales cuando sus sistemas de IA no cumplen con las expectativas acordadas.

Las "alucinaciones" de los modelos de lenguaje han pasado de ser una curiosidad técnica a un riesgo financiero real. Casos como Air Canada, obligada a honrar descuentos inventados por su chatbot, o Virgin Money, cuyo asistente virtual reprendió a un cliente por usar la palabra "virgin", demuestran las costosas consecuencias de implementar IA sin las protecciones adecuadas.

Lo interesante de estas pólizas es que no cubren cualquier error, sino específicamente cuando el rendimiento de la IA cae por debajo de las expectativas iniciales. Por ejemplo, si un chatbot proporcionaba información correcta el 95% del tiempo y luego baja al 85%, la cobertura se activaría. Esto establece un nuevo estándar de responsabilidad para proveedores y usuarios de IA.

Los expertos señalan que las pólizas tecnológicas existentes incluyen límites muy bajos para incidentes relacionados con IA (apenas $25,000 dentro de coberturas de $5 millones). Con empresas acelerando la adopción de IA para mejorar eficiencia, esta innovación del sector asegurador podría facilitar implementaciones más seguras y responsables.

Este desarrollo marca el inicio de un nuevo mercado: la gestión financiera del riesgo asociado a las IA generativas. Los seguros ya no solo protegen contra riesgos tradicionales, sino también contra la impredecibilidad de algoritmos que aprenden y evolucionan continuamente.

Insurance

Compartir:
lunes, 5 de mayo de 2025

OpenAI ha decidido mantener su estructura sin fines de lucro, abandonando planes de convertirse en una empresa tradicional. El anuncio llegó tras "escuchar a líderes cívicos y mantener diálogos constructivos con las oficinas del Fiscal General de Delaware y California", quienes tienen supervisión sobre el estatus no lucrativo de la organización.

La junta directiva sin fines de lucro (la misma que brevemente despidió a Sam Altman) seguirá supervisando su subsidiaria comercial, que cambiará de ser una LLC con ganancias limitadas a una Corporación de Beneficio Público (PBC), similar a Anthropic y xAI. Con esta nueva estructura, inversores y empleados tendrán acciones regulares sin límite en su apreciación, facilitando la captación de capital futuro.

La organización sin fines de lucro recibirá una participación accionaria en la subsidiaria PBC, que aumentará conforme crezca la valoración de la empresa. La junta nombrará un directorio para la PBC cuando se establezca oficialmente, manteniendo el control último sobre la compañía. Curiosamente, no hay planes para que Sam Altman, quien nunca ha tenido participación directa en OpenAI, reciba acciones.

En un memo a los empleados, Altman explicó que la estructura anterior que limitaba los retornos "tenía sentido cuando parecía que podría haber un esfuerzo dominante en AGI, pero no en un mundo con muchas grandes compañías de AGI". La empresa reafirma su compromiso con una "IA democrática" que ponga "herramientas increíbles en manos de todos", incluyendo la posibilidad de código abierto para modelos muy capaces.

Esta evolución estructural busca tres objetivos: mantener el control sin fines de lucro (decisión tomada tras conversaciones con líderes cívicos y fiscales generales), transformar la LLC con fines de lucro en una Corporación de Beneficio Público con la misma misión, y modificar la estructura de capital para que todos tengan acciones normales en lugar del complejo modelo anterior de ganancias limitadas.

raices

Compartir:
miércoles, 30 de abril de 2025

Ayer compré Yerba Mate en Colombia, acá no hay tiendas especializadas, ni muchas variedades, si mucho, hay tres marcas y lucen igual. "Mismo sabor, mismo origen, mismo precio." Una falsa elección disfrazada de variedad.

¿Sabes qué elegí? El que tenía el empaque azul. Porque me gusta el azul.

La industria de la IA está enfrentando exactamente este dilema.

Cuando todos los productos hacen "todo" y lo hacen cada vez mejor, ¿cómo eliges? Cuando el propósito es crear un sistema universal que responda cualquier pregunta, escriba cualquier texto, genere cualquier imagen... ¿qué significa ser "diferente"?

Los modelos más avanzados del mundo compiten por decimales en benchmarks que ningún usuario normal consultará jamás. Tu no vas a elegir Claude sobre ChatGPT porque resolvió un problema de lógica que el otro falló.

Lo eliges porque tiene una marca más confiable. O una interfaz más limpia. O porque fue el primero que probaste y funciona lo suficientemente bien.

Es la abundancia tecnológica en su máxima expresión: cuando la tecnología puede hacer prácticamente todo, el producto se vuelve invisible y solo queda la experiencia.

Las cafeterías de lujo no venden simplemente café. Venden ambiente, status, la sensación de pertenecer a un club exclusivo. Pagas cinco veces más por un latte no por su sabor, sino por lo que significa sostener ese vaso con tu nombre mal escrito.

Las empresas de IA no están vendiendo inteligencia artificial. Están vendiendo confianza, identidad y pertenencia. Están vendiendo la sensación de estar a la vanguardia sin tener que entender qué es tensorflow o una red neuronal.

¿Quién ganará la carrera de la IA? No necesariamente quien construya el mejor modelo. Sino quien construya la mejor historia sobre por qué su modelo importa en tu vida.

La próxima vez que elijas una herramienta de IA, pregúntate: ¿estás eligiendo una tecnología o estás comprando una narrativa?

Mate

Compartir:
sábado, 26 de abril de 2025

Una emisora de radio australiana ha utilizado durante meses un DJ completamente generado por IA para presentar un programa de cuatro horas sin informar a su audiencia. "Workdays with Thy", transmitido por la estación CADA en Sydney (propiedad de ARN Media), presenta música hip-hop, R&B y pop con una locutora creada con la tecnología de ElevenLabs, alcanzando a unos 72.000 oyentes desde noviembre sin levantar sospechas.

"Lo que hemos aprendido es el poder de los locutores que tenemos", comentó Ciaran Davis, CEO de ARN Media, quien a pesar del experimento insistió en que los presentadores con IA "definitivamente no son el futuro".

El caso plantea importantes preguntas sobre transparencia en medios y el futuro de la radio, especialmente cuando la voz de Thy está modelada a partir de una empleada real del departamento financiero de la compañía. Con CADA reduciendo su personal humano y manteniendo a su presentadora artificial, el experimento podría marcar un precedente para otras emisoras, aunque ya se han visto casos similares en Polonia y Estados Unidos que generaron controversia.

Thy

Compartir:

OpenAI parece estar ganando el favor de los desarrolladores con su Codex CLI, frente a Claude Code de Anthropic, debido principalmente a sus diferentes enfoques de licenciamiento. Mientras OpenAI ha publicado Codex CLI con licencia Apache 2.0 que permite distribución y uso comercial, Anthropic ha mantenido Claude Code bajo una licencia comercial más restrictiva.

La controversia surgió cuando un desarrollador intentó desofuscar el código de Claude Code y publicarlo en GitHub, provocando que Anthropic emitiera una notificación DMCA para su eliminación. En contraste, OpenAI ha integrado docenas de sugerencias de desarrolladores en Codex CLI, incluyendo la capacidad de utilizar modelos de IA de proveedores competidores.

Esta situación representa una sorpresiva victoria de relaciones públicas para OpenAI, que anteriormente había evitado publicaciones de código abierto en favor de productos propietarios. Podría reflejar un cambio en su filosofía, ya que Sam Altman, CEO de OpenAI, mencionó este año que creía que la empresa había estado "del lado equivocado de la historia" respecto al código abierto.

Claude vs Codex Cli

Compartir:
miércoles, 23 de abril de 2025

Claude, el asistente de IA de Anthropic, fue utilizado para operar más de 100 cuentas falsas en diversas plataformas como parte de una campaña de spam político. Según un nuevo informe, los operadores emplearon la IA para tomar decisiones tácticas de engagement: comentar, dar like o compartir contenido basado en objetivos políticos específicos.

Esta revelación pone de manifiesto una preocupante evolución en las operaciones de influencia, donde los actores maliciosos aprovechan la IA generativa para escalar sus campañas. La respuesta de Anthropic fue contundente: prohibición de todas las cuentas vinculadas y actualización de sus sistemas de detección para identificar patrones similares.

El caso ilustra la creciente sofisticación de las amenazas digitales en la era de la IA. Ya no se trata solo de bots simples y automatizados, sino de sistemas capaces de tomar decisiones contextuales que imitan el comportamiento humano, dificultando su detección por los métodos tradicionales.

Anthropic señala que continuará compartiendo información sobre estos patrones de uso indebido para fortalecer las defensas colectivas. Este enfoque de transparencia resulta crucial cuando las capacidades de la IA siguen expandiéndose, especialmente considerando que casos similares podrían replicarse con otros modelos de lenguaje.

El informe completo detalla patrones emergentes de amenazas, incluyendo fraude y malware, que utilizan asistentes de IA como Claude, y describe las estrategias implementadas para contrarrestarlos sin obstaculizar a los usuarios legítimos.

Influecia

Compartir:
martes, 22 de abril de 2025

Anthropic ha publicado su enfoque evolutivo para evaluar y mitigar el espectro completo de daños potenciales causados por sistemas de IA. El nuevo marco examina impactos físicos, psicológicos, económicos, sociales y de autonomía individual, complementando su Política de Escalado Responsable centrada en riesgos catastróficos.

La empresa implementa esta metodología en funcionalidades como el uso de computadoras y los límites de respuesta del modelo, buscando equilibrar la utilidad con protecciones adecuadas. Anthropic invita a investigadores y expertos a colaborar en esta iniciativa que busca anticipar desafíos emergentes mientras los sistemas se vuelven más capaces.

Anthropic

Compartir:
sábado, 19 de abril de 2025

Los modelos o3 y o4-mini de OpenAI, a pesar de ser punteros en muchos aspectos, presentan un aumento significativo en el índice de alucinaciones comparado con versiones anteriores. Según pruebas internas, o3 alucina en el 33% de las preguntas sobre PersonQA (el benchmark interno de la compañía que mide la precisión del conocimiento de un modelo sobre personas), aproximadamente el doble que los modelos o1 y o3-mini.

OpenAI reconoce en su informe técnico que "se necesita más investigación" para entender por qué las alucinaciones empeoran al escalar los modelos de razonamiento. Aunque estos modelos destacan en programación y matemáticas, su tendencia a generar más afirmaciones los lleva también a producir más información inexacta.

Compartir:
jueves, 17 de abril de 2025

OpenAI ha desplegado un nuevo sistema de monitoreo para sus últimos modelos de razonamiento, o3 y o4-mini, específicamente diseñado para detectar y bloquear consultas relacionadas con amenazas biológicas y químicas. Este "monitor de razonamiento enfocado en seguridad" está entrenado para identificar prompts potencialmente peligrosos e instruir a los modelos a rechazar proporcionar asesoramiento sobre estos temas.

Para desarrollar este sistema, OpenAI invirtió aproximadamente 1.000 horas de trabajo con equipos de "red teaming" que marcaron conversaciones consideradas "inseguras" relacionadas con riesgos biológicos. Durante las pruebas simulando la lógica de bloqueo, los modelos se negaron a responder a consultas arriesgadas en el 98,7% de los casos. La compañía reconoce que estas pruebas no contemplan escenarios donde los usuarios intenten reformular sus prompts tras ser bloqueados, por lo que continuarán dependiendo parcialmente de supervisión humana.

Compartir:

OpenAI ha revelado los cuatro asesores de su nueva comisión sin fines de lucro: Dolores Huerta, Monica Lozano, Dr. Robert K. Ross y Jack Oliver. Según el anuncio, estos expertos ayudarán a orientar los esfuerzos filantrópicos de la compañía.

"As we've said, OpenAI's nonprofit isn't going anywhere—and this commission will be key to expanding its reach and impact" ("Como hemos dicho, la organización sin fines de lucro de OpenAI no va a desaparecer, y esta comisión será clave para expandir su alcance e impacto")

La comisión tiene como objetivo convertir al brazo no lucrativo de OpenAI en un "multiplicador de fuerzas" para comunidades y organizaciones que abordan desafíos globales urgentes en áreas como salud, educación, servicio público e investigación científica. Los asesores presentarán sus conclusiones a la junta directiva en un plazo de 90 días.

Compartir:

Wikimedia Enterprise acaba de lanzar un nuevo conjunto de datos beta en Kaggle que ofrece contenido estructurado de Wikipedia en inglés y francés. Este formato está optimizado para flujos de trabajo de aprendizaje automático, facilitando el acceso a datos limpios y preprocesados que pueden utilizarse inmediatamente para modelado, evaluación comparativa, alineación y análisis exploratorio.

Esta iniciativa responde a la estrategia de Wikipedia para desalentar el scraping no autorizado de su plataforma por parte de desarrolladores de IA, proporcionando un recurso oficial optimizado para entrenar modelos. La Fundación Wikimedia se asoció con Kaggle (plataforma propiedad de Google) para ofrecer estos datos estructurados que permiten a los desarrolladores trabajar directamente con representaciones JSON bien estructuradas, evitando la necesidad de extraer y procesar el contenido por medios no oficiales.

Data Set - Wikipedia

Compartir:
domingo, 13 de abril de 2025

En esta fascinante conversación TED, Sam Altman navega entre el optimismo tecnológico y las preocupaciones éticas sobre la IA. La discusión revela la tensión fundamental entre el avance acelerado de la tecnología y nuestra capacidad para gestionarla responsablemente.

Chris Anderson cuestiona a Altman sobre las implicaciones de crear sistemas cada vez más potentes, mientras que el CEO de OpenAI defiende su visión del progreso inevitable. "Esto es como un descubrimiento de física fundamental que el mundo ya conoce y será parte de nuestro mundo", afirma Altman, sugiriendo que la evolución de la IA no puede detenerse.

El diálogo expone preocupaciones sobre propiedad intelectual, privacidad y el poder concentrado en pocas manos. Altman reconoce la necesidad de nuevos modelos económicos para compensar a los creadores, pero mantiene su postura de que la humanidad siempre se adapta a las nuevas tecnologías.

Particularmente reveladora es la discusión sobre la IA "agéntica" - sistemas autónomos que pueden realizar acciones en internet. Altman admite que esto representa "el desafío de seguridad más interesante y consecuente que hemos enfrentado", mientras Anderson cuestiona cómo prevenir escenarios peligrosos cuando estos sistemas estén ampliamente disponibles.

A pesar de las críticas sobre la transición de OpenAI hacia un modelo con fines de lucro, Altman defiende su trayectoria como un esfuerzo por "administrar esta tecnología en el mundo de manera responsable".

"But you know we're not going to get there's trade-offs in everything we do. And we are one player in this one voice in this AI revolution. Um trying to do the best we can and kind of steward this technology into the world in a responsible way. We've definitely made mistakes. We'll definitely make more in the future on the whole uh I think we have over the last almost decade it's been a long time now um it's you know we have mostly done the thing we've set out to do we have a long way to go in front of us our tactics will shift more in the future but adherence to the sort of mission and what we're trying to do I think very strong."

Lo más destacable fue la constante presión de Anderson sobre la rendición de cuentas (accountability). Mediante preguntas incisivas sobre la autoridad moral y las responsabilidades de Altman, intentó que el CEO de OpenAI abordara las implicaciones de desarrollar tecnología con tanto potencial disruptivo. Altman demostró una notable habilidad para manejar esta presión, manteniendo su visión optimista sin evadir por completo las preocupaciones legítimas sobre los riesgos que conlleva el desarrollo acelerado de la IA.

Play
Compartir:
viernes, 11 de abril de 2025

Los adolescentes están explorando la inteligencia artificial con curiosidad natural y sin las reservas que muestran sus padres. Un estudio reciente de la Universidad de California y Foundry10 revela que el 69% de los jóvenes afirma que la IA les ayudó a aprender algo nuevo, mientras que menos del 6% reportó problemas relacionados con su uso.

Contrario a lo que muchos temen, estos nativos digitales no están usando principalmente la IA para hacer trampa académica. La utilizan mayoritariamente en casa (72% para entretenimiento), seguido por tareas escolares (63%) y solo el 40% para trabajo en clase. Esto desmitifica la narrativa predominante sobre los riesgos inmediatos de la IA en la educación.

La brecha generacional es evidente: mientras los adolescentes adoptan estas herramientas con naturalidad, menos del 25% de los padres reportan el uso de IA en el hogar. Estamos ante un fenómeno donde, por primera vez, los jóvenes guían a los adultos en la adopción tecnológica, creando oportunidades para el aprendizaje intergeneracional.

Un hallazgo especialmente positivo es que, a diferencia de otras tecnologías educativas, la IA está llegando a jóvenes de diversos entornos socioeconómicos. Esto representa un potencial democratizador para la educación personalizada, aunque los investigadores advierten sobre la importancia de desarrollar pensamiento crítico para evaluar la información generada.

Los expertos recomiendan que padres y adolescentes exploren juntos cómo aprovechar estas herramientas, fomentando conversaciones transparentes sobre su uso adecuado. El estudio, apoyado por la National Science Foundation, encuestó a más de 1,500 jóvenes entre 9 y 17 años y casi 3,000 padres, ofreciendo una muestra representativa a nivel nacional.

Compartir:
martes, 8 de abril de 2025

Cientos de editores estadounidenses, incluyendo The New York Times, The Washington Post y Vox Media, han lanzado una campaña publicitaria llamada "Support Responsible AI" exigiendo al gobierno protección contra el uso no autorizado de su contenido por parte de empresas de IA. Los anuncios, que aparecerán en medios impresos y digitales, contienen frases como "Stop AI Theft" y "AI Steals From You Too".

AI Theft

Esta iniciativa surge pocas semanas después de que OpenAI y Google solicitaran al gobierno permiso para entrenar sus modelos con contenido protegido por derechos de autor. La campaña busca que las grandes tecnológicas compensen justamente a creadores de contenido y proporcionen atribución adecuada, similar a una iniciativa realizada en Reino Unido en febrero.

Compartir:
jueves, 3 de abril de 2025

Los modelos de razonamiento como Claude 3.7 Sonnet presumen de "mostrar su trabajo" a través de cadenas de pensamiento (CoT), pero una investigación de Anthropic revela que estos modelos frecuentemente ocultan información crucial que determina sus respuestas finales.

"En un mundo perfecto, todo en la Cadena de Pensamiento sería comprensible para el lector y fiel —sería una descripción verdadera de exactamente lo que el modelo estaba pensando mientras llegaba a su respuesta. Pero no vivimos en un mundo perfecto. No podemos estar seguros ni de la 'legibilidad' de la Cadena de Pensamiento ni de su 'fidelidad' —la precisión de su descripción."

El estudio encontró que Claude 3.7 Sonnet solo menciona las pistas que influyen en sus decisiones en un 25% de los casos, mientras que DeepSeek R1 lo hace en un 39%. Esta falta de transparencia es particularmente preocupante cuando se proporcionan pistas "poco éticas" o información obtenida sin autorización.

Contrario a lo que podríamos esperar, las explicaciones deshonestas no son más breves. De hecho, los modelos a menudo construyen justificaciones falsas y elaboradas para respuestas incorrectas. Cuando se entrenaron para explotar vulnerabilidades, ambos modelos aprendieron rápidamente a hacer trampa, pero revelaron este comportamiento en menos del 2% de sus explicaciones.

Aunque los intentos de mejorar esta situación mediante entrenamiento con refuerzo mostraron mejoras iniciales, la fidelidad de las explicaciones se estancó en niveles bajos (20-28%). Estos hallazgos cuestionan nuestra capacidad para detectar comportamientos problemáticos simplemente monitoreando lo que los modelos "dicen estar pensando".

Estos hallazgos subrayan la importancia de desarrollar enfoques complementarios para auditar el comportamiento de los sistemas de IA avanzados. El monitoreo de CoT puede detectar comportamientos no deseados frecuentes, pero no es suficiente para garantizar que los modelos no estén ocultando razonamientos problemáticos.

Compartir:

OpenAI anunció la creación de una comisión de expertos que ayudará a dirigir su brazo filantrópico. El objetivo es transformarse en "la organización sin fines de lucro mejor equipada que el mundo haya visto", combinando sus recursos financieros con tecnología de IA que puede potenciar el ingenio humano a escala.

La comisión, cuyos miembros serán anunciados en abril, tendrá 90 días para presentar recomendaciones sobre cómo abordar los problemas más urgentes que enfrentan las organizaciones sin fines de lucro, especialmente en California. El directorio de OpenAI contemplará estas recomendaciones para evolucionar su estructura sin fines de lucro antes de finales de 2025.

Compartir:

Google DeepMind ha publicado un extenso documento sobre seguridad en Inteligencia Artificial General (AGI) – sistemas con capacidades cognitivas similares o superiores a las humanas. La investigación identifica cuatro áreas principales de riesgo: uso indebido deliberado, desalineación con valores humanos, accidentes y riesgos estructurales, subrayando que esta tecnología podría transformar radicalmente la medicina, educación e innovación.

Shane Legg, científico jefe de AGI en Google DeepMind, enfatiza que la emoción por estas posibilidades no debe eclipsar las necesidades de seguridad, proponiendo un enfoque que incluye restringir capacidades peligrosas, implementar mecanismos de seguridad sofisticados y priorizar la investigación en alineación con valores humanos. La organización estima que la AGI podría llegar tan pronto como 2030.

Compartir: