La startup Multiverse Computing ha centrado su objetivo en abordar el problema de los lenguajes de gran tamaño, que algunas empresas no pueden asimilar precisamente por eso. Lo hacen gracias a la herramienta CompactifAI.
Esta empresa, considerada soonicorn ―lo que quiere decir que se encuentra en una etapa intermedia pero que está a punto de convertirse en un unicornio― ha desarrollado una tecnología de compresión de modelos de lenguaje que es completamente gratuito.
Su modelo de inteligencia artificial de código abierto es Hypernova 60B, está pensado para empresas que no pueden costearse ciertos modelos de inteligencia artificial y está disponible para su descarga en la plataforma Hugging Face.
La compañía ha explicado las grandezas de este invento en una nota de prensa, donde ha indicado que este modelo es una versión comprimida al 50% de gpt-oss-120B de OpenAI y que ahora ofrece mejoras en diferentes apartados con respecto a la anterior versión.
Una solución ante las limitaciones de presupuesto
Los responsables de esta compañía vasca han explicado qué es lo que quieren conseguir con esta herramienta y por qué han planteado ponerla a disposición de los usuarios sin coste.
Así, lo han hecho, entre otras cosas, porque «los desarrolladores se ven cadavez más limitados por los requisitos de infraestructura masivos, lo que limita su capacidad para probar, refinar e implementar IA de forma significativa».
Esto significa que CompactifAI se centra en la creación de modelos eficientes y de alto rendimiento, que reducen estas barreras, preservando al mismo tiempo las capacidades de razonamiento avanzado.
De esa manera, puede lanzar versiones de los modelos más potentes del mundo de manera completamente gratuita, eliminando también las concesiones y las compensaciones entre tamaño, precisión y accesibilidad.
Y, ¿cómo lo hace?, te preguntarás. Te una manera muy sencilla: aplica matemáticas de inspiración cuántica para analizar y reorganizar redes neuronales, preservando únicamente sus componentes con mayor contenido de información.
De ese modo, puede reducir el tamaño del modelo hasta en un 95%, manteniendo la precisión dentro de un margen del 2-3%. En base a lo conseguido hasta la fecha por otras empresas, estas cifras son redondas. Y es que el estándar de la industria se caracteriza por una pérdida de precisión del 20-30% con técnicas de compresión del 50-60%.
Mejoras en aplicaciones de codificación avanzadas
Multiverse Computing ha subrayado que HyperNova 60B ha demostrado que puede lograr un rendimiento de razonamiento de nivel fronterizo con requisitos de memoria, energía e infraestructura «considerablemente menores» a una fracción del costo típico.
También presenta mejoras sustanciales en puntos de referencia clave, como la comparación con la versión anterior y puede trabajar con aplicaciones de codificación avanzadas como Tau2-Bench, Terminal Bench Hard y BFCL v4.
Multiverse ha confirmado que continúa ampliando el acceso a modelos de IA listos para producción, diseñados para su implementación en entornos empresariales, de investigación y del sector público.
Con ello, ha concretado que planea seguir lanzando modelos y actualizaciones de código abierto adicionales a lo largo del año, ampliando su enfoque a múltiples tamaños y casos de uso, ya sean sistemas empresariales o aplicaciones.


Deja una respuesta