Noticias de IA #modelos

Análisis y comentarios sobre la evolución de la inteligencia artificial.

203 noticias
Actualizado 12 jun, 00:00
Filtros activos: #modelos Limpiar filtros

martes, 10 de junio de 2025

Micropost
OpenAI

OpenAI acaba de actualizar Advanced Voice Mode para usuarios pagos, haciendo las conversaciones más naturales con mejor entonación, pausas realistas y expresividad emocional mejorada. Lo más destacado: ahora traduce en tiempo real durante las conversaciones, manteniendo el flujo entre idiomas sin interrupciones.

Esta funcionalidad promete cambiar las dinámicas de comunicación internacional en empresas. Imagina reuniones donde cada participante habla en su idioma nativo y la IA traduce instantáneamente. Sin embargo, OpenAI reconoce limitaciones: posibles variaciones en calidad de audio y "alucinaciones" ocasionales que generan sonidos no deseados. Un recordatorio de que estamos en territorio experimental, pero con aplicaciones comerciales cada vez más tangibles.

Vioce Mode

Compartir:
Tecnohumanismo
Código Humano

Apple acaba de publicar un estudio sobre cómo razonan realmente los modelos de IA.

Y todo el mundo lo está interpretando como "la IA no funciona."

Pero Apple no dice eso. Lo que encuentran es más específico: los modelos de razonamiento tienen tres regímenes distintos de comportamiento, y en el más complejo, algo fascinante sucede.

Me recuerda a Steve Prefontaine.

Pre era el tipo de corredor que quemaba todo desde el primer paso. Su filosofía: "Si no das todo lo que tienes, desperdicias el regalo."

Sin estrategia, sin reservas. Puro fuego en cada zancada.

Pero aquí está lo que la gente olvida.

Incluso Pre tuvo que aprender que una carrera de 5,000 metros no se corre igual que una de 1,500. Que dar todo tiene diferentes formas según la distancia.

No porque fuera menos capaz. Porque era más inteligente.

Apple encuentra algo similar: tres regímenes claros de comportamiento.

En problemas simples, los modelos estándar superan a los de "razonamiento." En complejidad media, pensar más ayuda. Pero en alta complejidad, ambos colapsan completamente.

Y aquí viene lo contraintuitivo: cuando los problemas se vuelven muy complejos, los modelos de razonamiento reducensu esfuerzo de pensamiento, no lo aumentan.

Es como si Prefontaine hubiera empezado a trotar cuando la carrera se puso más difícil.

Apple muestra que esto no es gestión estratégica de recursos. Es que los modelos se quedan sin pila cuando los problemas dejan de parecerse a lo que conocen.

La diferencia es crucial.

Un corredor estratégico elige cuándo acelerar. Un corredor que se agota simplemente no puede mantener el ritmo cuando el terreno cambia.

Los modelos actuales son más como el Pre real: brillantes en su elemento, pero sin verdadera adaptación táctica cuando las condiciones se vuelven extrañas.

El problema no es que no puedan correr rápido.

Es que solo saben correr en la pista que conocen.

Steve Prefontaine

Compartir:

lunes, 7 de abril de 2025

Análisis
Stanford

El informe de Stanford HAI revela cómo la inteligencia artificial está transformándose de promesa tecnológica a realidad omnipresente. Su edición 2025 ofrece una radiografía completa del ecosistema de IA mediante datos que ayudan a entender su evolución reciente.

Los modelos de IA continúan superando fronteras técnicas con mejoras dramáticas en benchmarks especializados. El informe destaca aumentos de hasta 67.3 puntos porcentuales en pruebas como SWE-bench, evidenciando que los sistemas no solo mejoran, sino que lo hacen a velocidades sin precedentes.

La integración de IA en nuestra cotidianidad se acelera. Desde los 223 dispositivos médicos aprobados por la FDA en 2023 hasta los 150,000 viajes semanales en vehículos autónomos de Waymo, estamos presenciando el salto definitivo de esta tecnología desde los laboratorios a nuestras vidas.

La brecha geopolítica en IA se redefine. Mientras Estados Unidos lidera en cantidad de modelos (40 frente a 15 de China), el gigante asiático ha reducido significativamente las diferencias de rendimiento, pasando de desventajas de dos dígitos a casi paridad. Además, el desarrollo se globaliza con lanzamientos relevantes desde Oriente Medio y Latinoamérica.

Quizás lo más interesante sea la democratización: el coste de inferencia para sistemas equivalentes a GPT-3.5 ha caído 280 veces entre 2022 y 2024. Los modelos de código abierto han reducido su desventaja frente a modelos cerrados del 8% al 1.7%, sugiriendo un futuro donde el acceso a IA avanzada no será privilegio exclusivo de grandes corporaciones.

Play