1 Fundamentos
¿Por qué IA local? El caso empresarial para la propiedad
A principios de la década de2020, la inteligencia artificial era un servicio que se alquilaba: por horas, por tokens, por llamadas API. En 2026, el paradigma ha cambiado. El hardware necesario para ejecutar inteligencia de "clase GPT-4" ahora cabe en tu escritorio y cuesta menos que un coche usado.
La dependencia continua de IA exclusivamente en la nube presenta un trilema estratégico:
- Costes crecientes. Las tarif de API por token escalan linealmente con el uso. Un bufete jurídico que procesa 1.000 contratos diarios puede enfrentar € 30.500+ en costes anuales de API.
- Exposición de datos. Cada consulta enviada a una API en la nube son datos que salen de tu red y están expuestos a riesgos de seguridad y privacidad.
- Cero o costosa personalización. Los modelos en la nube son genéricos. No pueden ajustarse fácilmente ni de forma rentable con datos personalizados, procesos empresariales internos o inteligencia de negocio.
El hardware de IA local resuelve los tres. Transforma los costes variables de API en un activo de capital fijo, garantiza que los datos nunca abandonen la LAN y permite una profunda personalización mediante ajustes finos con datos empresariales.
2 Reducción de costes
Cuantización: Ejecuta modelos de IA más grandes en hardware más económico
La cuantización es un concepto que cambia fundamentalmente la economía de la IA local.
En términos simples, la cuantización comprime la huella de memoria de un modelo de IA. Un modelo estándar almacena cada parámetro como un número de coma flotante de 16 bits (FP16). La cuantización reduce esto a 8 bits (Int8), 4 bits (Int4) o incluso menos, reduciendo drásticamente la memoria necesaria para ejecutar el modelo.
La cuantización resulta en una ligera reducción de la calidad de salida, a menudo imperceptible para tareas empreses como resúmenes, redacción y análisis, a cambio de una reducción masiva en el coste del hardware.
Un modelo de 70B con precisión completa requiere140 GB de memoria, una inversión en servidor de € 5.000+. El mismo modelo cuantizado a Int4 requiere solo ~40 GB y puede ejecutarse en una estación de trabajo usada de € 2.500 con dos GPU.
3 Mini-PCs
Mini-PCs de IA € 1.300 – € 8.500
El desarrollo más disruptivo de2026 es la computación de IA de alta capacidad en formato mini-PC. Dispositivos no más grandes que un libro de tapa dura ahora ejecutan modelos de IA que requerían salas de servidores hace dos.
El ecosistema NVIDIA GB10 (DGX Spark)
Líder en rendimiento
El NVIDIA DGX Spark ha definido esta categoría. 2026, el Superchip GB10, que combina una CPU ARM Grace con una GPU Blackwell, ha generado un ecosistema completo. ASUS, GIGABYTE, Dell, Lenovo, HP, MSI y Supermicro producen sistemas basados en GB10, cada uno con diferentes factores de forma, soluciones de refrigeración y software incluido.
Al conectar dos unidades GB10 mediante el puerto de red dedicado de alta velocidad, el sistema combina recursos en un espacio de memoria de 256 GB. Esto permite ejecutar modelos muy grandes — B+ parámetros cuantizados — completamente en tu escritorio por una inversión total en hardware de aproximadamente € 5.000 – € 6.000.
Mini-PCs AMD Ryzen AI Max (Strix Halo)
Coste más bajo
La arquitectura AMD Ryzen AI Max+ Strix Halo
ha generado una categoría completamente nueva de mini-PCs de IA económicos. Una ola de fabricantes (GMKtec, Beelink, Corsair, NIMO, Bosgame, FAVM) ahora ofrecen sistemas de memoria unificada de 128 GB por menos de € 1.700.
Apple Mac Studio (M4 Ultra)
Líder en capacidad
El Mac Studio ocupa una posición única en el panorama de la IA local. La Arquitectura de Memoria Unificada (UMA de Apple proporciona hasta 256 GB de memoria accesible tanto para la CPU como para la GPU en una única unidad de escritorio compacta, sin necesidad de clustering.
Esto lo convierte en el único dispositivo único asequible
capaz de cargar los modelos de código abierto más grandes. Un modelo de 400 mil millones de parámetros cuantizado a Int4 cabe completamente en la memoria en la configuración de 256 GB.
Apple Mac Studio (M5 Ultra)
Contend próximo
Se rumorea que la próxima generación M5 Ultra de Apple, prevista para finales de 2026, abordará la principal debilidad del M4: el rendimiento en entrenamiento de modelos de IA. Construido en el proceso de 2 nm de TSMC, se espera que ofrezca configuraciones de hasta 512 GB de memoria unificada con un ancho de banda superior a 1,2 TB/s.
El M5 Ultra de 512 GB sería el primer dispositivo de consumo capaz de ejecutar modelos frontera no cuantizados (precisión completa). La alta amplitud de banda de memoria de 1,2+ TB/s admite flujos de trabajo de IA agentica que requieren inferencia de alto rendimiento sostenida con ventanas de contexto muy largas
Tenstorrent
Hardware de código abierto
Liderado por el legendario arquitecto de chips Jim Keller, Tenstor representa una filosofía fundamentalmente diferente: hardware de código abierto basado en RISC-V, software de código abierto y escalado modular mediante conexión en cadena.
Los núcleos de IA Tensix
están diseñados para escalar linealmente: a diferencia de las GPU, que luchan con la sobrecarga de comunicación al añadir más tarjetas, los chips Tenstorrent están construidos para ensamblarse eficientemente.
En asociación con Razer, Tenstorrent ha lanzado un acelerador de IA externo compacto que se conecta a cualquier portátil o escritorio mediante Thunderbolt, transformando el hardware existente en una estación trabajo de IA sin reemplazar nada.
NAS de IA — Almacenamiento conectado en red
Almacenamiento + IA
La definición de NAS ha evolucionado de almacenamiento pasivo a inteligencia activa. Una nueva generación de dispositivos de almacenamiento en red integra procesamiento de IA directamente, desde inferencia ligera basada en NPU hasta implementación completa de LLM acelerada por GPU
Un NAS con capacidades de IA elimina la necesidad de un dispositivo de IA separado y permite el procesamiento directo de grandes volúmenes de datos sin latencia de transferencia de red.
¿Necesita ayuda para elegir el mini-PC de IA adecuado para su empresa?
Nuestros ingenieros pueden evaluar sus requisitos de hardware para IA e implementar un sistema de IA completamente configurado.
Obtenga una de hardware gratuita →4 Workstations
Workstations y PC de escritorio para IA € 2.500 – € 12.500
La categoría de workstations utiliza tarjetas gráficas PCIe discretas y chasis de torre estándar. A diferencia de las arquitecturas unificadas fijas de la categoría de mini-PC, esta ofrece modularidad: puede actualizar componentes individuales, añadir más GPU o intercambiar tarjetas a medida que evoluciona la tecnología.
Entendiendo VRAM vs. Velocidad
Dos factores contrapuestos definen la elección de GPU para IA:
Las tarjetas de consumo (como la RTX 5090) maximizan la velocidad pero ofrecen VRAM limitado (típicamente 24-32 GB). Las tarjetas profesionales (como la RTX PRO 6000 Blackwell) maximizan el VRAM (hasta 96 GB por tarjeta) pero cuestan más por unidad de cómputo.
El VRAM es la limitación crítica. Una tarjeta rápida con memoria insuficiente no puede cargar el modelo de IA. Una tarjeta más lenta con memoria suficiente ejecuta el modelo, aunque con tiempos de respuesta más largos.
GPU de consumo
| Configuración | VRAM total | Interconexión | Coste aprox. |
|---|---|---|---|
| 2× RT 3090 (usadas) | 48 GB | NVLink | € 2.500 |
| 2× RTX 4090 | 48 GB | PCIe Gen 5 | € 3.400 |
| 2× RTX 5090 | 64 GB | PCIe Gen 5 | € 6.000 |
GPU profesionales
| Configuración | VRAM total | Interconexión | Coste aprox. |
|---|---|---|---|
| 2× RTX A6000 Mejor relación calidad-precio | 96 GB | NVLink | € 6.000 |
| 2× RTX 6000 Ada | 96 GB | PCIe Gen 5 | € 11.000 |
| 1× RTX PRO 6000 Blackwell | 96 GB | NVLink | € 6.800 |
| 4× RTX PRO 6000 Blackwell | 384 GB | PCIe Gen 5 | € 27.000 |
GPU para centros de datos
| Configuración | VRAM total | Interconexión | Coste aprox. |
|---|---|---|---|
| 1× L40S | 48 GB | PCIe 4.0 (refrigeración pasiva) | € 6.000 |
| 1× A100 PCIe | 80 GB | PCIe 4.0 | € 8.500 |
| 1× H200 NVL | 141 GB | NVLink | € 25.000 |
| 4× H200 NVL | 564 GB | NVLink | € 100.000 |
| 1× B200 SXM | 180 GB | NVLink 5 (1,8 TB/s) | € 25.000 |
| 8× B200 SXM | 1.440 GB | NVLink 5 (1,8 TB/s) | € 200.000 |
GPU chinos
El ecosistema de GPU doméstico de China ha madurado rápidamente. Varios fabricantes chinos ahora ofrecen GPU de IA de clase workstation con especificaciones competitivas y precios significativamente más bajos.
| Configuración | VRAM total | Tipo de memoria | Coste aprox. |
|---|---|---|---|
| 1× Moore Threads MTT S4000 | 48 GB | GDDR6 | € 700 |
| 4× Moore Threads MTT S4000 | 192 GB | GDDR6 | € 3.000 |
| 8× Moore Threads MTT S4000 | 384 GB | GDDR6 | € 5.500 |
| 1× Hygon DCU Z100 | 32 GB | HBM2 | € 2.100 |
| 1× Biren BR104 | 32 GB | HBM2e | € 2.500 |
| 8× Biren BR104 | 256 GB | HBM2e | € 20.000 |
| 1× Huawei Ascend Atlas 300I Duo | 96 GB | HBM2e | € 1.000 |
| 8× Huawei Ascend Atlas 300I Duo | 768 GB | HBM2e | € 8.500 |
Próximamente
| Configuración | VRAM total | Estado | Coste aprox. |
|---|---|---|---|
| RTX 5090 128 GB | 128 GB | Mod. china — no es un SKU estándar | € 4.200 |
| RTX Titan AI | 64 GB | Previsto para 2027 | € 2.500 |
Workstations preconfiguradas
Para PYMEs que prefieren un único proveedor, garantía única y configuración certificada, varios proveedores (como Dell y HP) ofrecen sistemas preconfigurados. Son la opción segura
para ofic no técnicas: pida, conecte y comience a trabajar.
NVIDIA DGX Station
Enterprise Apex
La NVIDIA DGX Station es un superordenador
de escritorio con refrigeración líquida que lleva el rendimiento de un centro de datos a un entorno de oficina. La última versión utiliza el Superchip GB300 Grace Blackwell.
La versión Blackwell Ultra
aumenta la densidad de memoria y la potencia de cómputo, diseñada para organizaciones que necesitan entrenar modelos personalizados desde cero o ejecutar arquitecturas MoE (Mixture of Experts) masivas localmente.
El rey del valor
para PYMEs. Aunque basada en la anterior arquitectura Ampere, sigue siendo el estándar de la industria para inferencia confiable y fine-tuning. Ideal para equipos que entran en el mundo de la IA sin presupuesto para Blackwell.
Aunque es caro, la DGX Station reemplaza un rack de servidores de € 250.000+ y su infraestructura de refrigeración asociada. Se conecta a un enchufe estándar. Esto elimina completamente la sobrecarga de la sala de servidores
.
¿Necesita ayuda para elegir la workstation de IA adecuada para su empresa?
Nuestros ingenieros pueden evaluar sus requisitos de hardware para IA e implementar un sistema de IA completamente configurado.
Obtenga una de hardware gratuita →5 Servidores
Servidores de IA € 12.500 – € 170.000
Cuando su negocio necesita atender a 50 o más empleados simultáneamente, ejecutar modelos de clase foundation a máxima precisión o ajustar modelos personalizados con datos propietarios, ingresa al nivel de servidores.
Este es el dominio de tarjetas aceleradoras de IA dedicadas con memoria de alto ancho de banda (HBM), interconexiones especializadas y factores de forma montables en rack o de escritorio. El hardware es más caro, pero el coste por usuario disminuye drásticamente a escala.
Intel Gaudi 3
Mejor relación calidad-precio a escala
El acelerador Gaudi 3 de Intel fue diseñado desde cero como un chip de entrenamiento e inferencia de IA, no una tarjeta gráfica reutilizada. Cada tarjeta proporciona 128 GB de memoria HBM2e con red Ethernet integrada de 400 Gb, eliminando la necesidad de adaptadores de red separados.
Un servidor con 8 tarjetas Gaudi 3 ofrece 1 TB de memoria total para IA a un coste mucho menor que un sistema NVIDIA H100 comparable. Para PYMEs que necesitan IA de clase servidor pero no pueden justificar los precios de NVIDIA, Gaudi 3 es la alternativa más convincente disponible hoy.
La red integrada de 400 GbE en cada tarjeta Gaudi 3 permite comunicación directa entre tarjetas sin switches externos, simplificando la arquitectura del servidor y reduciendo el coste total del sistema. Un servidor de 8 tarjetas ejecuta los modelos de código abierto más grandes a velocidades interactivas para docenas de usuarios simultáneos.
AMD Instinct MI325X
Máxima densidad
La AMD Instinct MI325X incluye 256 GB de memoria HBM3e por tarjeta: el doble que Intel Gaudi 3 y NVIDIA H100. Solo se necesitan 4 tarjetas para alcanzar 1 TB de memoria total para IA, frente a 8 tarjetas para Intel o NVIDIA.
La MI325X es más cara por sistema que Gaudi 3, pero más rápida y densa. Para cargas de trabajo que exigen máximo rendimiento (inferencia en tiempo real para cientos de usuarios o entrenamiento de modelos personalizados con grandes conjuntos de datos), la mayor inversión se amortiza con menor latencia e infraestructura más simple.
Huawei Ascend
Alternativa Full-Stack
Huawei ha replicado toda la pila de infraestructura de IA: silicio personalizado (Ascend 910B/C), interconexiones propietarias (HCCS) y un marco de software completo (CANN). El resultado es un ecosistema autónomo que opera independientemente de cadenas de suministro occidentales y a un coste mucho menor que los clústeres NVIDIA H100 comparables.
Intel Xeon 6 (Granite Rapids)
Servidor económico
Una revolución silenciosa en 2026 es el auge de la inferencia de IA basada en CPU. Los procesadores Intel Xeon 6 incluyen AMX (Advanced Matrix Extensions) que permiten cargas de trabajo de IA en RAM DDR5 estándar, que es drásticamente más barata que la memoria de GPU.
Un servidor de doble socket Xeon 6 puede contener 1 TB a 4 TB de RAM DDR5 a una fracción del coste de la memoria de GPU. Las velocidades de inferencia son lentas, pero para procesamiento por lotes (donde la velocidad es irrelevante pero la inteligencia y capacidad son primordiales), esto es transformador.
Ejemplo: Una PYME sube 100.000 facturas escaneadas durante la noche. El servidor Xeon 6 ejecuta un modelo de IA +400B para extraer datos perfectamente. La tarea tarda 10 horas, pero el coste del hardware es mucho menor que un servidor GPU.
¿Necesita ayuda para elegir la infraestructura de servidor AI adecuada?
Nuestro equipo de infraestructura diseña e implementa soluciones completas de servidores AI — desde Intel Gaudi hasta NVIDIA DGX — combinadas con software a medida — para desbloquear las capacidades de la IA en su negocio.
Solicitar propuesta de arquitectura de servidor →6 Edge AI
Edge AI & Retrofit Actualización de infraestructura existente
No todas las PYMEs necesitan un servidor AI dedicado o mini-PC. Muchas pueden integrar inteligencia en infraestructuras existentes — actualizando portátiles, ordenadores de sobremesa y dispositivos de red con capacidades AI a coste mínimo.
Aceleradores AI M.2: El Hailo-10
El Hailo-10 es un módulo estándar M.2 2280 — la misma ranura usada para SSDs — que añade procesamiento AI dedicado a cualquier PC existente. Por ~127 € por unidad y consumiendo solo 5–8W de potencia, permite actualizaciones AI en toda la flota sin reemplazar hardware.
Casos de uso: Transcripción local de reuniones (Whisper), subtitulado en tiempo real, dictado por voz, inferencia de modelos pequeños (Phi-3 Mini). Estas tarjetas no pueden ejecutar LLMs grandes, pero sobresalen en tareas AI específicas y persistentes — asegurando que los datos de voz se procesen localmente sin enviarse a la nube.
Copilot+ PCs (portátiles con NPU)
Los portátiles con chips Qualcomm Snapdragon X Elite, Intel Core Ultra o AMD Ryzen AI contienen NPUs dedicadas. No pueden ejecutar LLMs grandes, pero manejan tareas AI pequeñas y persistentes: transcripción en vivo, desenfoque de fondo, funciones locales Recall
, y ejecución de modelos ligeros como Microsoft Phi-3.
9 Modelos AI
Modelos AI de código abierto (2026–2027)
La elección del modelo AI dicta los requisitos de hardware — pero como demostró el capítulo sobre Cuantización de Modelos AI, la cuantización permite que modelos de vanguardia funcionen en hardware que cuesta una fracción de lo que requiere el despliegue en precisión completa.
La siguiente tabla proporciona un resumen de modelos AI de código abierto actuales y próximos.
| Modelo | Tamaño | Arquitectura | Memoria (FP16) | Memoria (INT4) |
|---|---|---|---|---|
| Llama 4 Behemoth | 288B (activo) | MoE (~2T total) | ~4 TB | ~1 TB |
| Llama 4 Maverick | 17B (activo) | MoE (400B total) | ~800 GB | ~200 GB |
| Llama 4 Scout | 17B (activo) | MoE (109B total) | ~220 GB | ~55 GB |
| DeepSeek V4 | ~70B (activo) | MoE (671B total) | ~680 GB | ~170 GB |
| DeepSeek R1 | 37B (activo) | MoE (671B total) | ~140 GB | ~35 GB |
| DeepSeek V3.2 | ~37B (activo) | MoE (671B total) | ~140 GB | ~35 GB |
| Kimi K2.5 | 32B (activo) | MoE (1T total) | ~2 TB | ~500 GB |
| Qwen 3.5 | 397B (activo) | MoE (A17B) | ~1.5 TB | ~375 GB |
| Qwen 3-Max-Thinking | Grande | Denso | ~2 TB | ~500 GB |
| Qwen 3-Coder-Next | 480B (A35B activo) | MoE | ~960 GB | ~240 GB |
| Mistral Large 3 | 123B (41B activo) | MoE (675B total) | ~246 GB | ~62 GB |
| Ministral 3 (3B, 8B, 14B) | 3B–14B | Denso | ~6–28 GB | ~2–7 GB |
| GLM-5 | 44B (activo) | MoE (744B total) | ~1.5 TB | ~370 GB |
| GLM-4.7 (Thinking) | Grande | Denso | ~1.5 TB | ~375 GB |
| MiMo-V2-Flash | 15B (activo) | MoE (309B total) | ~30 GB | ~8 GB |
| MiniMax M2.5 | ~10B (activo) | MoE (~230B total) | ~460 GB | ~115 GB |
| Phi-5 Reasoning | 14B | Denso | ~28 GB | ~7 GB |
| Phi-4 | 14B | Denso | ~28 GB | ~7 GB |
| Gemma 3 | 27B | Denso | ~54 GB | ~14 GB |
| Pixtral 2 Large | 90B | Denso | ~180 GB | ~45 GB |
| Stable Diffusion 4 | ~12B | DiT | ~24 GB | ~6 GB |
| FLUX.2 Pro | 15B | DiT | ~30 GB | ~8 GB |
| Open-Sora 2.0 | 30B | DiT | ~60 GB | ~15 GB |
| Whisper V4 | 1.5B | Denso | ~3 GB | ~1 GB |
| Med-Llama 4 | 70B | Denso | ~140 GB | ~35 GB |
| Legal-BERT 2026 | 35B | Denso | ~70 GB | ~18 GB |
| Finance-LLM 3 | 15B | Denso | ~30 GB | ~8 GB |
| CodeLlama 4 | 70B | Denso | ~140 GB | ~35 GB |
| Molmo 2 | 80B | Denso | ~160 GB | ~40 GB |
| Granite 4.0 | 32B (9B activo) | Híbrido Mamba-Transformer | ~64 GB | ~16 GB |
| Nemotron 3 | 8B, 70B | Denso | ~16–140 GB | ~4–35 GB |
| EXAONE 4.0 | 32B | Denso | ~64 GB | ~16 GB |
| Llama 5 Frontier | ~1.2T (total) | MoE | ~2.4 TB | ~600 GB |
| Llama 5 Base | 70B–150B | Denso | ~140–300 GB | ~35–75 GB |
| DeepSeek V5 | ~600B (total) | MoE | ~1.2 TB | ~300 GB |
| Stable Diffusion 5 | TBD | DiT | — | — |
| Falcon 3 | 200B | Denso | ~400 GB | ~100 GB |
No compre primero el hardware. Identifique la clase de modelo que se ajuste a sus necesidades empresariales, luego aplique cuantización para determinar el nivel de hardware más asequible.
La diferencia entre una inversión de € 2.500 y 125.000 € a menudo se reduce a los requisitos de tamaño de modelo y el número de usuarios concurrentes.
Tendencias que moldean el panorama de modelos AI
- Multimodalidad nativa como estándar. Los nuevos modelos se entrenan simultáneamente con texto, imágenes, audio y video — no como capacidades separadas añadidas posteriormente. Esto significa que un único modelo maneja análisis de documentos, comprensión de imágenes e interacción por voz.
- Modelos pequeños alcanzando capacidades de modelos grandes. Phi-5 (14B) y MiMo-V2-Flash demuestran que la innovación arquitectónica puede comprimir razonamiento de vanguardia en modelos que funcionan en un portátil. La era de "más grande es mejor" está terminando.
- Especialización sobre generalización. En lugar de un modelo masivo para todo, la tendencia es hacia conjuntos de modelos especializados — un modelo de codificación, un modelo de razonamiento, un modelo de visión — orquestados por un framework de agentes. Esto reduce los requisitos de hardware por modelo mientras mejora la calidad general.
- AI agentica. Modelos como Kimi K2.5 y Qwen 3 están diseñados para descomponer tareas complejas autónomamente, llamar herramientas externas y coordinarse con otros modelos. Este paradigma de
enjambre de agentes
requiere un rendimiento sostenido en sesiones largas — favoreciendo hardware de alto ancho de banda como el GB10 y M5 Ultra. - Generación de video y 3D en maduración. Open-Sora 2.0 y FLUX.2 Pro indican que la generación local de video se está volviendo práctica. Para 2027, espere asistentes de edición de video en tiempo real funcionando en hardware de nivel estación de trabajo.
10 Seguridad
Arquitectura para máxima seguridad
Adquirir hardware potente es solo el primer paso. Para PYMEs que manejan datos sensibles, la arquitectura de conexión entre empleados y el sistema AI es tan crítica como el hardware mismo.
El modelo de seguridad estándar para AI local en 2026 es la Arquitectura API Air-Gapped: un patrón de diseño que aísla físicamente el servidor AI de internet mientras lo hace accesible a empleados autorizados a través de una interfaz API.
Esta arquitectura crea una Cámara Acorazada Digital
. Incluso si el Servidor Intermediario se viera comprometido, un atacante solo podría enviar consultas de texto — no podría acceder al sistema de archivos del Servidor AI, pesos del modelo, datos de fine-tuning ni documentos almacenados.
¿Necesita una implementación AI segura con soluciones AI a medida?
Nuestros ingenieros diseñan e implementan arquitecturas AI air-gapped asegurando que los datos nunca abandonen las instalaciones mientras proporcionan a su negocio capacidades AI de última generación.
Discutir arquitectura AI segura →11 Economía
El veredicto económico: Local vs. Nube
La transición a hardware AI local es un cambio de OpEx (gastos operativos — tarifas mensuales de API en la nube) a CapEx (gastos de capital — una inversión única en hardware que se convierte en activo en su balance).
Considere un bufete legal ejecutando un modelo 70B para analizar contratos:
Con 100 consultas diarias (carga de trabajo típica de equipo pequeño), un DGX Spark de 3.050 € se amortiza en menos de 2 meses comparado con costes de API en la nube. Con niveles de uso más altos, el periodo de equilibrio se reduce a semanas.
La economía se vuelve aún más favorable cuando se considera:
- Múltiples empleados compartiendo el mismo hardware (el DGX Spark sirve a 2–5 usuarios simultáneos)
- Sin precios por token: las tareas de razonamiento complejas y de varios pasos no tienen coste adicional
- Ajuste fino con datos propios: imposible con la mayoría de API en la nube, gratuito en hardware local
- Valor de reventa del hardware: el hardware de IA conserva un valor significativo en el mercado secundario