Microsoft Research publicó BitNet b1.58 2B4T, un modelo de lenguaje de 100.000 millones de parámetros que usa cuantización de solo 1 bit — cada peso se almacena como -1, 0 o +1, en lugar de los floats de 32 bits de los modelos convencionales. El resultado es un modelo que puede ejecutarse eficientemente en CPUs estándar sin GPU, consumiendo mucha menos memoria y energía. Los primeros benchmarks muestran que BitNet iguala o supera a modelos de tamaño similar cuantizados a 4 bits en varias tareas de razonamiento y lenguaje. La publicación incluye los pesos completos del modelo y un motor de inferencia CPU personalizado (bitnet.cpp) optimizado para arquitecturas x86 y ARM. Para desarrolladores en entornos con recursos limitados, BitNet representa una ruta potencial para ejecutar LLMs capaces localmente en hardware ordinario.