Compartir:
Meta ha revelado su modelo de inteligencia artificial más grande hasta la fecha, Llama 3.1, marcando un hito en la industria de código abierto. Este modelo, que supera a los líderes actuales como OpenAI, Anthropic y Google, ya está disponible para su descarga en plataformas como Hugging Face, GitHub y la propia Meta, aunque requiere una infraestructura considerable para su implementación.
Llama 3.1 se especializa únicamente en texto, aunque Meta está trabajando en capacidades multimodales. Este modelo es capaz de realizar tareas de codificación, responder preguntas matemáticas y resumir documentos, incluidos PDFs y hojas de cálculo, en ocho idiomas. A pesar de no ser multimodal, ha sido diseñado y entrenado con nuevas técnicas que le permiten superar a GPT-4o de OpenAI en la ejecución de código y generación de gráficos. Sin embargo, las pruebas iniciales indican que Llama 3.1 presenta debilidades en capacidades multilingües y razonamiento general.
El entrenamiento de Llama 3.1 se ha basado en el mismo conjunto de datos utilizado en modelos anteriores, incluyendo datos no ingleses, código, matemáticas, web y datos sintéticos generados por otros modelos de IA. Meta ha implementado un control de calidad y filtrado rigurosos para mejorar la precisión del modelo.
A pesar de la transparencia en muchos aspectos, Meta no ha revelado detalles específicos sobre la procedencia de sus datos de entrenamiento, más allá de páginas web públicas y archivos en línea. La compañía sostiene que esta «salsa secreta» les proporciona una ventaja competitiva, una práctica común entre los gigantes tecnológicos. No obstante, los críticos argumentan que este secretismo podría ser una estrategia para retrasar las inevitables demandas por derechos de autor, ya que se sabe que Meta entrena su IA utilizando publicaciones, fotos y descripciones de Instagram y Facebook, complicando la opción de los usuarios para excluirse de estos procesos.
Con Llama 3.1, Meta no solo marca un avance significativo en el campo de la inteligencia artificial, sino que también intensifica el debate sobre la transparencia y la ética en el uso de datos para entrenar modelos de IA.