Meta, la compañía detrás de uno de los modelos de lenguaje de código abierto más grandes, Llama, ha anunciado que necesitará una cantidad significativamente mayor de poder de computación para entrenar sus futuros modelos. Durante la llamada de ganancias del segundo trimestre, Mark Zuckerberg reveló que para entrenar Llama 4, la empresa requerirá diez veces más computación que la utilizada para Llama 3. Sin embargo, Zuckerberg enfatizó que prefiere construir esta capacidad con anticipación para no quedarse atrás de sus competidores.
Premium
Meta incrementa su capacidad de computación para entrenar modelos de IA más grandes
Escrito el 01/08/2024
3 minutos
Contenido exclusivo para suscriptores
Para acceder a todo nuestro contenido crea tu cuenta y suscríbete a tu prueba de 14 días.