Noticias / #OpenAI

Noticias sobre #OpenAI

11 entradas con la etiqueta #OpenAI.

#37signals #AGI #API #Adobe #Adopción #Adquisiciones #Agentes #Alexa #Alucinaciones #Anthropic #Aplicaciones móviles #Aprendizaje #Arte Digital #Asistente #Asistentes #Automatización #Auténtico #ChatGPT #Claude #Coca-Cola #Colaboración #Contradicciones #Copyright #Creatividad #Cultura #Curso virtual #Código Abierto #Código abierto #Datasets #DeepMind #Derechos de autor #Desarrollo #Desarrollo Personal #Diseño #Economía #Educación #ElevenLabs #Equipo #Estoicismo #Estrategia #Eventos #Experiencia de Usuario #Filantropía #Filosofia #Foco #Formación #Futuro #Gemini #Geopolítica #Gestión #Gobernanza #Google #Google DeepMind #Grok #Hardware #Herramientas #Humildad #Imperfección #Imperfeción #Imágenes #Innovación #Inspiración #Interacción por Voz #Interoperabilidad #Investigación #JetBrains #LangChain #Llama #Mentores #Meta #Microsoft #Modelos #Música #No-code #OpenAI #OpenIA #Paradigma #Pensamiento Crítico #Pensamiento crítico #Periodismo #Perspectiva #Podcast #Prioridades #Problema #Procesos #Productividad #Programación #Propósito #Protocolo #Publicidad #Razonamiento #Realidad Aumentada #Realidad aumentada #Reflexiones #Regulación #Respeto #Runway #Sam Altman #Seguridad #Sesgo Cognitivo #Sesgos cognitivos #Startup #Tendencias #Tiempo #Transformación #Transparencia #Valor #Vibe Coding #Video #Voz #Wikipedia #YouTube #autonomía #creatividad #crecimiento #desarrollo software #diseño #educación #herramientas #hábitos #interoperabilidad #modelos multimodales #perseverancia #productividad #programación #propósito #responsabilidad #robótica #tendencias #Ética #ética
sábado, 19 de abril de 2025

Los modelos o3 y o4-mini de OpenAI, a pesar de ser punteros en muchos aspectos, presentan un aumento significativo en el índice de alucinaciones comparado con versiones anteriores. Según pruebas internas, o3 alucina en el 33% de las preguntas sobre PersonQA (el benchmark interno de la compañía que mide la precisión del conocimiento de un modelo sobre personas), aproximadamente el doble que los modelos o1 y o3-mini.

OpenAI reconoce en su informe técnico que "se necesita más investigación" para entender por qué las alucinaciones empeoran al escalar los modelos de razonamiento. Aunque estos modelos destacan en programación y matemáticas, su tendencia a generar más afirmaciones los lleva también a producir más información inexacta.

Compartir:
jueves, 17 de abril de 2025

OpenAI ha entrado en el competitivo espacio de asistentes de programación basados en terminal con el lanzamiento de Codex CLI, uniéndose a herramientas establecidas como Claude Code de Anthropic y Aider. Ambos, Codex CLI y Aider, comparten la filosofía del código abierto, mientras que Claude Code representa una oferta propietaria.

Codex CLI se posiciona como una solución "ligera y transparente" que conecta los modelos de OpenAI directamente con tareas de codificación locales. Al igual que Aider, busca democratizar el acceso a asistentes de programación potentes mediante un enfoque abierto, permitiendo a la comunidad contribuir y personalizar la herramienta según sus necesidades.

Una diferencia significativa de Codex CLI es su capacidad multimodal para procesar capturas de pantalla y bocetos junto con instrucciones textuales. Este enfoque podría ofrecer ventajas en flujos de trabajo visuales que Aider no aborda actualmente, mientras Claude Code integra las capacidades de razonamiento avanzado de Anthropic.

OpenAI respaldará su apuesta con un programa de subvenciones de $1 millón en créditos de API para desarrolladores. Este movimiento busca construir una comunidad de usuarios y casos de uso, similar a cómo Aider ha cultivado su base de seguidores en GitHub desde su lanzamiento.

La competencia en el espacio de "pair programming" en terminal refleja cómo las principales empresas de IA están reconociendo el potencial transformador de estos asistentes para el desarrollo de software. Con múltiples opciones de código abierto disponibles, los desarrolladores tienen ahora más flexibilidad para elegir la herramienta que mejor se adapte a sus flujos de trabajo específicos.

Play

Compartir:
miércoles, 16 de abril de 2025

OpenAI ha lanzado oficialmente sus nuevos modelos de razonamiento o3 y o4-mini, que representan los sistemas de IA más inteligentes de la compañía hasta la fecha. Estos modelos marcan un avance significativo al integrar capacidades de razonamiento avanzado con acceso completo a herramientas, permitiéndoles resolver problemas complejos de manera más eficiente.

La característica más destacada es su capacidad de utilizar herramientas de forma "agéntica" mientras razonan, combinando búsqueda web, análisis de archivos, procesamiento visual y generación de imágenes. Esta integración permite a los modelos abordar tareas multifacéticas que requieren análisis en varios pasos, estableciendo nuevos estándares tanto en inteligencia como en utilidad práctica.

Compartir:
lunes, 14 de abril de 2025

OpenAI ha lanzado tres nuevos modelos en su API: GPT-4.1, GPT-4.1 mini y GPT-4.1 nano. Estas actualizaciones destacan por mejoras significativas en codificación (54.6% en SWE-bench Verified) y seguimiento de instrucciones, superando ampliamente a GPT-4o.

Los tres modelos ofrecen una ventana de contexto de hasta 1 millón de tokens, mejorando la comprensión de contenido extenso. Además, OpenAI ha reducido precios: GPT-4.1 es 26% más económico que GPT-4o, y GPT-4.1 nano se posiciona como su modelo más rápido y económico hasta la fecha.

Windsurf ofrece acceso gratuito a GPT-4.1 durante los próximos 7 días. Una excelente oportunidad para desarrolladores que quieran probar estas nuevas capacidades.

Compartir:
domingo, 13 de abril de 2025

En esta fascinante conversación TED, Sam Altman navega entre el optimismo tecnológico y las preocupaciones éticas sobre la IA. La discusión revela la tensión fundamental entre el avance acelerado de la tecnología y nuestra capacidad para gestionarla responsablemente.

Chris Anderson cuestiona a Altman sobre las implicaciones de crear sistemas cada vez más potentes, mientras que el CEO de OpenAI defiende su visión del progreso inevitable. "Esto es como un descubrimiento de física fundamental que el mundo ya conoce y será parte de nuestro mundo", afirma Altman, sugiriendo que la evolución de la IA no puede detenerse.

El diálogo expone preocupaciones sobre propiedad intelectual, privacidad y el poder concentrado en pocas manos. Altman reconoce la necesidad de nuevos modelos económicos para compensar a los creadores, pero mantiene su postura de que la humanidad siempre se adapta a las nuevas tecnologías.

Particularmente reveladora es la discusión sobre la IA "agéntica" - sistemas autónomos que pueden realizar acciones en internet. Altman admite que esto representa "el desafío de seguridad más interesante y consecuente que hemos enfrentado", mientras Anderson cuestiona cómo prevenir escenarios peligrosos cuando estos sistemas estén ampliamente disponibles.

A pesar de las críticas sobre la transición de OpenAI hacia un modelo con fines de lucro, Altman defiende su trayectoria como un esfuerzo por "administrar esta tecnología en el mundo de manera responsable".

"But you know we're not going to get there's trade-offs in everything we do. And we are one player in this one voice in this AI revolution. Um trying to do the best we can and kind of steward this technology into the world in a responsible way. We've definitely made mistakes. We'll definitely make more in the future on the whole uh I think we have over the last almost decade it's been a long time now um it's you know we have mostly done the thing we've set out to do we have a long way to go in front of us our tactics will shift more in the future but adherence to the sort of mission and what we're trying to do I think very strong."

Lo más destacable fue la constante presión de Anderson sobre la rendición de cuentas (accountability). Mediante preguntas incisivas sobre la autoridad moral y las responsabilidades de Altman, intentó que el CEO de OpenAI abordara las implicaciones de desarrollar tecnología con tanto potencial disruptivo. Altman demostró una notable habilidad para manejar esta presión, manteniendo su visión optimista sin evadir por completo las preocupaciones legítimas sobre los riesgos que conlleva el desarrollo acelerado de la IA.

Compartir:
viernes, 4 de abril de 2025

Una teoría se expande en Twitter (X). Nos dicen que OpenAI no quería generar imágenes de Ghibli. Lo que realmente quería era tu cara. Para entrenar sus modelos. Para robarte algo valioso camuflado tras un juego inocente.

Suena inteligente. Casi brillante. Tiene la estructura perfecta de una buena conspiración: una corporación poderosa, una estrategia oculta, y nosotros como ingenuos participantes.

Pero espera.

Facebook alberga más de 250 mil millones de fotos. Instagram recibe aproximadamente 95 millones de fotos y videos diariamente. TikTok acumula más de 23 millones de videos diarios, capturando miles de millones de rostros en movimiento. A esto se suman las fotos públicas de LinkedIn, Twitter, Reddit y otras plataformas donde mostramos voluntariamente nuestras caras.​

Las empresas tecnológicas no necesitan trucos elaborados para conseguir rostros humanos. Ya los tienen. A escala planetaria. Con metadatos precisos, historial de interacciones y variación temporal.

La explicación más sencilla suele ser la correcta: a veces un éxito viral es solo eso, algo que conectó con nosotros porque era divertido, nostálgico o simplemente hermoso.

Hay un cierto confort en las teorías conspirativas. Ofrecen estructura en un mundo caótico. Proveen villanos claramente definidos. Y lo más importante: nos hacen sentir especiales por "ver a través del engaño" mientras los demás permanecen ciegos.

¿Qué nos dice de nosotros mismos cuando preferimos la explicación rebuscada frente a la simple?

¿Qué buscamos realmente cuando convertimos cada innovación en una amenaza oculta?

Tal vez el verdadero hack no está en la tecnología, sino en cómo reaccionamos a ella.

texto alternativo

Compartir:
jueves, 3 de abril de 2025

OpenAI anunció la creación de una comisión de expertos que ayudará a dirigir su brazo filantrópico. El objetivo es transformarse en "la organización sin fines de lucro mejor equipada que el mundo haya visto", combinando sus recursos financieros con tecnología de IA que puede potenciar el ingenio humano a escala.

La comisión, cuyos miembros serán anunciados en abril, tendrá 90 días para presentar recomendaciones sobre cómo abordar los problemas más urgentes que enfrentan las organizaciones sin fines de lucro, especialmente en California. El directorio de OpenAI contemplará estas recomendaciones para evolucionar su estructura sin fines de lucro antes de finales de 2025.

Compartir:
lunes, 31 de marzo de 2025

La integración completa de generación de imágenes en ChatGPT ya está disponible para todos los usuarios, independientemente de su plan (Pro, Plus, Team o gratuito) a nivel mundial. Esta capacidad permite crear imágenes directamente dentro de las conversaciones con ChatGPT sin necesidad de cambiar a herramientas especializadas.

Esta expansión marca un punto de inflexión en la democratización de la IA creativa. No olvidemos que OpenAI fue pionero en la generación de imágenes con DALL-E antes de que se convirtiera en un boom, y ahora con esta democratización redefine nuevamente el mercado de herramientas creativas digitales, transformando ChatGPT de una herramienta principalmente textual a un asistente multimodal completo que cambia fundamentalmente nuestra interacción diaria con la IA.

cómo hacer imágenes

Compartir:

Escrito por Gary Rivlin, ganador del Premio Pulitzer, este libro nos sumerge en el epicentro del desarrollo de la IA en Silicon Valley.

Durante más de un año, Rivlin siguió de cerca a fundadores y capitalistas de riesgo que intentan aprovechar este momento crucial de la IA, incluyendo a Reid Hoffman (fundador de LinkedIn), Sam Altman (cofundador de OpenAI) y Mustafa Suleyman (cofundador de DeepMind).

El libro nos da acceso privilegiado a:

  • Inflection AI, cofundada por Hoffman en 2022
  • OpenAI, la startup que desató la revolución con ChatGPT
  • Los gigantes tecnológicos como Microsoft, Meta y Google

En esta frontera tecnológica, nadie sabe qué empresas triunfarán y cuáles fracasarán espectacularmente. Rivlin documenta los avances a medida que ocurren, ofreciéndonos una comprensión profunda de lo que nos espera en el desarrollo de la IA.

Una historia de aventuras llena de drama y personalidades inolvidables que promete ser la referencia definitiva para entender esta fase de descubrimientos que está cambiando el mundo.

Compartir:

l WSJ publicó un interesante extracto del próximo libro de Keach Hagey sobre Sam Altman y OpenAI. Detalla el drama entre bastidores que llevó al breve despido de Altman en 2023 - revelando cómo Mira Murati e Ilya Sutskever trabajaron secretamente con miembros de la junta debido a preocupaciones sobre el estilo de liderazgo de Altman, supuestos engaños y conflictos de interés. Las luchas de poder se intensificaron después del lanzamiento de ChatGPT y GPT-4, culminando en su destitución temporal.

Un recordatorio de que la gobernanza corporativa en las empresas de IA no es solo teatro burocrático - puede alterar dramáticamente la trayectoria de las compañías más influyentes del sector, aunque sea temporalmente.

Compartir:

Su intento de resolver el problema educativo de la IA a escala global. La propuesta incluye tutoriales breves, talleres presenciales y, eventualmente, comunidades de aprendizaje.

Lo que realmente llama la atención es lo que no hicieron: no crearon otra plataforma de cursos tradicionales ni intentaron convertir a ChatGPT en profesor. En cambio, optaron por un enfoque modular que prioriza la aplicación práctica y la interacción comunitaria.

El enfoque tiene sentido. La educación en IA no puede seguir el mismo ritmo que los modelos de Stanford o Coursera cuando las capacidades de estos sistemas evolucionan cada semana. Para cuando terminas un curso estructurado, ya estás trabajando con tecnología obsoleta.

Lo más interesante: prometen otro anuncio esta semana con un "enfoque muy diferente" para impulsar la alfabetización en IA. Esto sugiere que OpenAI reconoce que no hay una solución única para este problema.

La verdadera pregunta sigue siendo cómo equilibrar accesibilidad y profundidad cuando el conocimiento práctico en IA tiene una vida útil cada vez más corta.

Compartir: