OpenAI ha decidido aflojar las restricciones sobre las capacidades de generación de imágenes de ChatGPT, y las implicaciones son fascinantes… y un poco inquietantes.
Para empezar, ahora permiten que ChatGPT cree imágenes de figuras públicas. Sí, eso incluye figuras controvertidas. Antes, esto era un rotundo "no", presumiblemente para evitar los inevitables desastres de relaciones públicas. Pero OpenAI dice que están adoptando un enfoque más "matizado". Traducción: creen que pueden manejarlo… hasta que no puedan.
Aún más llamativo, ahora ChatGPT puede generar símbolos de odio (piensa en esvásticas) en "contextos educativos neutrales". Claro, la intención aquí parece noble—la educación es algo positivo—pero esto es una pendiente resbaladiza si alguna vez hubo una. El contexto lo es todo, y la IA no es exactamente conocida por su impecable comprensión de los matices.
¿La justificación de OpenAI? Empoderar a los usuarios mientras mitigan el daño en el mundo real. Eso es lenguaje corporativo para "tenemos suficiente confianza en nuestra tecnología para asumir este riesgo". Si esa confianza está justificada, está por verse.
These adjustments seem to be part of OpenAI’s larger plan to effectively “uncensor” ChatGPT. OpenAI announced in February that it’s starting to change how it trains AI models, with the ultimate goal of letting ChatGPT handle more requests, offer diverse perspectives, and reduce topics the chatbot refuses to work with.
Este movimiento se siente audaz, tal vez incluso imprudente. Pero también señala la fe de OpenAI en su capacidad para navegar estas aguas turbias. Esperemos que tengan razón—porque si no la tienen, las consecuencias podrían ser espectacularmente caóticas.