¿Qué está pasando en el mundo crypto? En el canal de WhatsApp de CriptoTendencia te lo contamos todo. ¡Suscríbete!
El nuevo o1-pro es el modelo más caro de OpenAI hasta la fecha, informó la compañía el día de hoy. La nueva y arriesgada apuesta tiene costos superiores y se espera que llame la atención de los usuarios. Actualmente, el fervor por los modelos de IA amenaza la ventaja que OpenAI ha ganado sobre sus competidores.
Los recursos computacionales disponibles para o1-pro son los más poderosos hasta la fecha, aseguró un portavoz de la compañía durante el lanzamiento: «o1-pro en la API es una versión de o1 que utiliza más recursos computacionales para pensar con mayor precisión y ofrecer respuestas aún mejores a los problemas más complejos». Sin embargo, la enorme ventaja que supuestamente representa el desarrollo de o1-pro es opacada rápidamente por sus elevados costos.
Inicialmente, OpenAI cobrará un aproximado de $150 por un millón de tokens (casi unas 750.000 palabras) introducidos al modelo. Y adicionalmente, un cobro de $600 por millón cuando de tokens generados por el modelo se trate. Esto representa, el doble de precio de entrada que la compañía estableció para GPT-4.5.
¿Es verdad que o1-pro es el modelo más caro de OpenAI hasta la fecha?
Aunque todavía no se han develado los costos de desarrollo, con los precios del modelo ya publicados, podemos hacernos una idea. La compañía agregó: «Tras recibir numerosas solicitudes de nuestra comunidad de desarrolladores, nos entusiasma incorporarlo a la API para ofrecer respuestas aún más fiables». Tal parece ser que la apuesta de OpenAI es la fiabilidad de sus modelos, que cada vez adquieren más confianza entre los entusiastas de la inteligencia artificial.
Pese a los esfuerzos, la competencia en el sector de IA para OpenAI se complica cada día más. Sus alternativas asiáticas como DeepSeek causaron revuelo y desde luego, cuestionamiento sobre el funcionamiento de ChatGPT.
Las primeras impresiones de o1-pro están saliendo a la luz desde el pasado diciembre de 2024. Con unos resultados no muy favorecedores a la hora de resolver sencillos problemas de Sudoku, o1-pro tiene mucho camino por delante. Usuarios reportaron, a su vez, que el modelo se veía confundido cuando de chistes o ilusiones ópticas se trataba.
Desde luego, debemos recordar que un modelo como este no ha sido desarrollado completamente para estas tareas y podría tener otros fines, es una muestra pequeña de sus capacidades y desventajas. Algunas pruebas realizadas por OpenAI demostraron que el modelo de lenguaje apenas superaba los puntajes mínimos en pruebas de programación y matemáticas. Sin embargo, la confiabilidad con la que resolvió los problemas es más que aceptable, indicaron los expertos.
¿Puede cualquier usuario acceder al nuevo modelo?
Inicialmente, solo un grupo de desarrolladores y usuarios que hayan gastado al menos $5 en la API de ChatGPT tendrán acceso. Como es de esperarse, en unos meses, seguramente estará para todos los usuarios que paguen el plan premium de ChatGPT.
Si bien los precios de o1-pro son relativamente altos y en algunos casos desproporcionados, el nivel de cómputo seguro encontrará uso en tareas especializadas y complejas. Como todas las tecnologías en sus primeras generaciones, los costos son elevados y eventualmente irán disminuyendo a medida que el desarrollo tecnológico lo permita.
En su informe inicial, OpenAI explicó que o1-pro estaría especialmente orientado a la resolución de problemas científicos, matemáticos y de programación. Esta decisión refleja la estrategia de la compañía y sugiere que los modelos de «razonamiento» han llegado para quedarse en la industria.

















