Compartir:
Los modelos de inteligencia artificial avanzada están cambiando el panorama del aprendizaje automático. Recientemente, los modelos DeepSeek-R1 han sido incorporados al Amazon Bedrock Marketplace y Amazon SageMaker JumpStart, destacando por su capacidad de razonamiento complejo. Estos modelos han mostrado resultados extraordinarios en evaluaciones exigentes como las pruebas matemáticas AIME-2024 y MATH-500. Además, competen de manera eficiente con modelos reconocidos como Claude Sonnet 3.5 de Anthropic, GPT-4 y OpenAI O1.
Durante su desarrollo, los investigadores descubrieron que los modelos DeepSeek-R1-Zero mejoran su capacidad para resolver problemas cuando se les otorga más tiempo para reflexionar. No obstante, se enfrentan al desafío de manejar los llamados «tokens de pensamiento», necesarios para procesar respuestas, lo que se traduce en un costo considerable.
La optimización de prompts en Amazon Bedrock ha emergido como una estrategia eficaz para mejorar el rendimiento de estos modelos de razonamiento. Por ejemplo, al enfrentarse a problemas matemáticos sencillos, el sistema muestra a veces dificultades para completar su razonamiento debido a limitaciones en el número máximo de tokens, lo que impide llegar a una conclusión adecuada.
La ampliación del límite de tokens de 2,048 a 4,096 ha permitido que los modelos tengan un proceso de razonamiento más profundo y exhaustivo antes de generar una respuesta definitiva. Esta optimización en el uso de tokens es esencial para obtener respuestas precisas.
Un ejemplo de éxito de esta técnica es su aplicación en el «Último Examen de la Humanidad» (HLE), un conjunto de preguntas que exige un conocimiento profundo y habilidades complejas de razonamiento. La optimización de prompts ha logrado reducir el número de tokens de pensamiento sin comprometer la precisión. En una de las pruebas, la técnica permitió una disminución del 35% en el uso de tokens, mientras se mantenía la corrección de la respuesta. En un grupo de 400 preguntas del HLE, la precisión se incrementó del 8.75% al 11%, optimizando también el tiempo y costo de los procesos.
Estos avances sugieren que la optimización de prompts es una herramienta valiosa para la implementación de modelos de razonamiento en entornos que demandan precisión y eficiencia en el uso de recursos computacionales. A medida que los modelos de IA continúan evolucionando, técnicas como la optimización de prompts serán cada vez más cruciales para aplicaciones prácticas en la industria.