En el video de hoy vamos a probar el MacMini M4 en su configuración más básica, para ver si es capaz de ejecutar modelos de lenguaje de cualquier tamaño con la GPU que incorpora. El precio de este equipo es de 719 EUR e incluye una CPU y GPU con 10 núcleos, 16 Gb de memoria y 256 Gb de almacenamiento. Probaremos más de 10 modelos para verificar donde están los límites de este modelo tan compacto.
Si quieres conocer otras alternativas para ejecutar LLM puedes volver a ver nuestro directo anterior y si te interesa alguna, puedes revisar por ti mismo el precio de alguno de estos componentes, utilizando los siguiente enlaces afiliados de Amazon. Estos artículos enlazados son algunas de las ofertas disponibles en la semana de Black Friday. Por favor, si quieres comprar algo, revisa si es vendido y enviado por Amazon o la valoración del vendedor del marketplace. En el video explico los motivos más en detalle:
- Mac Mini M4: [ Ссылка ]
- RTX 3060 12 Gb: [ Ссылка ]
- RTX 3090 24 Gb (revisar que sea vendido por Amazon): [ Ссылка ]
-RTX 4060ti 16 Gb (doble ventilador): [ Ссылка ]
-RTX 4060ti 16 Gb (triple ventilador): [ Ссылка ]
-RTX 4090 24 Gb: [ Ссылка ]
Nota: Al pulsar estos enlaces, puedo recibir una comisión de Amazon Afiliados.
Ещё видео!