Noticias / #Alucinaciones

Noticias sobre #Alucinaciones

2 entradas con la etiqueta #Alucinaciones.

#37signals #AGI #API #Adobe #Adopción #Adquisiciones #Agentes #Alexa #Alucinaciones #Anthropic #Aplicaciones móviles #Aprendizaje #Arte Digital #Asistente #Asistentes #Automatización #Auténtico #ChatGPT #Claude #Coca-Cola #Colaboración #Contradicciones #Copyright #Creatividad #Cultura #Curso virtual #Código Abierto #Código abierto #Datasets #DeepMind #Derechos de autor #Desarrollo #Desarrollo Personal #Diseño #Economía #Educación #ElevenLabs #Equipo #Estoicismo #Estrategia #Eventos #Experiencia de Usuario #Filantropía #Filosofia #Foco #Formación #Futuro #Gemini #Geopolítica #Gestión #Gobernanza #Google #Google DeepMind #Grok #Hardware #Herramientas #Humildad #Imperfección #Imperfeción #Imágenes #Innovación #Inspiración #Interacción por Voz #Interoperabilidad #Investigación #JetBrains #LangChain #Llama #Mentores #Meta #Microsoft #Modelos #Música #No-code #OpenAI #OpenIA #Paradigma #Pensamiento Crítico #Pensamiento crítico #Periodismo #Perspectiva #Podcast #Prioridades #Problema #Procesos #Productividad #Programación #Propósito #Protocolo #Publicidad #Razonamiento #Realidad Aumentada #Realidad aumentada #Reflexiones #Regulación #Respeto #Runway #Sam Altman #Seguridad #Sesgo Cognitivo #Sesgos cognitivos #Startup #Tendencias #Tiempo #Transformación #Transparencia #Valor #Vibe Coding #Video #Voz #Wikipedia #YouTube #autonomía #creatividad #crecimiento #desarrollo software #diseño #educación #herramientas #hábitos #interoperabilidad #modelos multimodales #perseverancia #productividad #programación #propósito #responsabilidad #robótica #tendencias #Ética #ética
sábado, 19 de abril de 2025

Los modelos o3 y o4-mini de OpenAI, a pesar de ser punteros en muchos aspectos, presentan un aumento significativo en el índice de alucinaciones comparado con versiones anteriores. Según pruebas internas, o3 alucina en el 33% de las preguntas sobre PersonQA (el benchmark interno de la compañía que mide la precisión del conocimiento de un modelo sobre personas), aproximadamente el doble que los modelos o1 y o3-mini.

OpenAI reconoce en su informe técnico que "se necesita más investigación" para entender por qué las alucinaciones empeoran al escalar los modelos de razonamiento. Aunque estos modelos destacan en programación y matemáticas, su tendencia a generar más afirmaciones los lleva también a producir más información inexacta.

Compartir:
viernes, 18 de abril de 2025

Un chatbot de soporte de Cursor inventó una política inexistente que limitaba el servicio a "un dispositivo por suscripción", provocando que usuarios amenazaran con cancelar sus suscripciones. El co-fundador de la empresa reconoció que algo "claramente salió mal" y confirmó que ahora las respuestas de IA para soporte técnico están "claramente etiquetadas como tales".

Este incidente resalta el peligro de la "alucinación" en agentes de IA cuando operan sin supervisión humana, especialmente en roles de atención al cliente donde sus respuestas son consideradas oficiales. Es un recordatorio de que incluso herramientas diseñadas para potenciar la productividad de desarrolladores pueden generar fricción cuando la IA opera sin los controles adecuados.

Cómo ocurrió Todo comenzó cuando un usuario de Reddit notó que sus sesiones de Cursor se cerraban inesperadamente al cambiar entre dispositivos. Al contactar al soporte, recibió una respuesta de "Sam" afirmando que "Cursor está diseñado para funcionar con un dispositivo por suscripción como medida de seguridad". La respuesta parecía oficial y el usuario no sospechó que estaba interactuando con una IA.

La publicación en Reddit desató confusión entre usuarios que tomaron como cierto este cambio de política. Tres horas después, un representante real de Cursor aclaró: "No tenemos tal política. Desafortunadamente, esta es una respuesta incorrecta de un bot de soporte con IA".

La ironía no pasó desapercibida: una empresa que vende herramientas de productividad con IA para desarrolladores fue perjudicada por las alucinaciones de su propio sistema de soporte, justo cuando muchos afirman que los problemas de alucinación ya no son tan graves.

Compartir: