Si trabajas en ciencia de datos, ya no basta con tener “una buena laptop”. Los modelos crecen, los datasets se disparan y los plazos no perdonan. En mi día a día he visto que si el equipo se arrastra, el proyecto también. Esta guía baja a tierra todo lo que debes mirar para no equivocarte.
Antes de comprar: ¿nube o portátil potente? Criterios y casos reales
Lo primero no es la marca, es dónde vas a correr el trabajo. Entrenar modelos medianos/grandes en local puede sonar tentador, pero subestimar la carga local mata productividad y motivación. ¿Cuándo compensa la nube (Colab/AWS/GCP) y cuándo una GPU en tu portátil?
Elige la nube cuando:
- Tu foco es prototipado, notebooks, EDA, modelos clásicos (scikit-learn) y entrenamientos puntuales de DL.
- Necesitas escalar sin atarte al hardware (VRAM/CPU), pagar solo por uso y compartir entornos.
- Tu presupuesto hoy no alcanza para una GPU decente pero sí para mejor RAM/SSD.
Elige GPU local cuando:
- Iteras mucho con DL (vision/NLP/tabular) y odias las colas/limitaciones de sesiones en la nube.
- Trabajas sin conexión (consultoría in-house, cliente con datos sensibles).
- Quieres tiempos de ida y vuelta muy cortos en fine-tuning/experimentos.
Regla práctica: para ciencia de datos general, CPU sólida + 32 GB RAM + SSD NVMe dan más productividad que una GPU discreta cutre. “Una GPU acelera, pero una RAM corta te frena igual”. Y recuerda: gran parte del tiempo se va en limpiar, transformar y visualizar datos; optimiza el equipo para eso primero.
Requisitos mínimos y recomendados según tu uso (Python, pandas, visualización, DL)
Aterrizamos specs por tipo de tarea. No todas necesitan lo mismo y lo barato sale caro cuando el dataset crece.
Uso principal | CPU | RAM | Almacenamiento | GPU | Otros |
---|---|---|---|---|---|
EDA, pandas, SQL, dashboards | 8 núcleos modernos (Intel Core Ultra / Ryzen 7) | 16 GB mínimo, 32 GB ideal | NVMe 1 TB (mejor 2 TB) | Integrada o dGPU básica | Pantalla 15–16″ 16:10, buena calibración |
Modelado clásico (scikit-learn, XGBoost) | 8–12 núcleos, buen turbo | 32 GB | NVMe 1–2 TB | Integrada o RTX 3050/4050 | Ventilación decente, 2º slot RAM/SSD si es posible |
Deep Learning ligero (vision/NLP pequeño) | 10–14 núcleos | 32–64 GB | NVMe 2 TB | RTX 4060 (8 GB VRAM) mínimo | USB-C PD, buen teclado ES |
DL serio / fine-tuning medio | 12–16 núcleos | 64 GB (o más) | NVMe 2–4 TB | RTX 4070/4080 (12–16 GB VRAM) | Considera estación de trabajo móvil |
Big Data local (parquet, polars, dask) | 12–16 núcleos, cache grande | 64 GB+ | NVMe 2–4 TB + 2º SSD | dGPU opcional | Red rápida (Wi-Fi 6E/7), puertos |
Tip: si hoy vas justo de presupuesto, prioriza 32 GB RAM y SSD grande. Siempre podrás entrenar en nube. Cuando probé a recortar RAM “para ahorrar”, la máquina empezó a paginar y todo se volvió un cuello de botella.
CPU para ciencia de datos: Intel Core Ultra, AMD Ryzen o Apple Silicon
Para notebooks de data science, la CPU manda en EDA, polars/pandas, compresiones, joins y tareas CPU-bound.
- Intel (Core Ultra / i7-i9 de última gen): buena mezcla de performance/efficiency cores; va muy bien con WSL2 si vas a Linux y CUDA desde Windows. Busca 10+ núcleos, buen turbo sostenido y TDP razonable.
- AMD (Ryzen 7/9): excelente rendimiento multi-hilo y eficiencia. Suele ofrecer mejor precio/rendimiento y autonomía estable. Soporte sólido para Linux nativo.
- Apple Silicon (M-series): CPU e iGPU muy eficientes, batería top. Para ML nativo, Metal y frameworks ajustados a macOS; para CUDA no es opción. Ideal si tu stack es Python puro, notebooks, análisis, viz, y DL con librerías compatibles o vía cloud.
Qué mirar de verdad: número de núcleos/threads, cache L3, sostenimiento de turbo (no solo el pico) y refrigeración. Una CPU potente en un chasis mal ventilado rinde como una media.
GPU: ¿necesitas una RTX? VRAM mínima, límites y alternativas (Colab/GCP/AWS)
Para DL local, la GPU es la estrella. Lo mínimo razonable hoy para jugar en serio: RTX 4060 (8 GB). Para cargas con lotes medianos o modelos algo más gordos, 12–16 GB de VRAM se agradecen (RTX 4070/4080 móviles). Por debajo de eso, funciona, pero pasarás más tiempo peleando con OOM que iterando.
Cuándo ahorrar en GPU:
- Si tu día a día es BI/analítica o modelos clásicos.
- Si ya pagas Colab Pro o usas instancias puntuales en la nube para entrenar.
Cuándo ir a por todas:
- Proyectos con visión (augmentations pesadas) o NLP con embeddings grandes.
- Fine-tuning repetitivo, demos sin red, privacidad.
Alternativas inteligentes: combinar un portátil equilibrado (CPU/RAM/SSD) con eGPU (si tu equipo y presupuesto lo permiten) o con servidor externo en la oficina. Así no cargas 3 kg cada día.
RAM y almacenamiento: 16–32–64 GB y SSD NVMe (cómo no quedarse corto)
La RAM es la diferencia entre fluir y sufrir. 16 GB son el mínimo para estudiar y tareas ligeras; 32 GB es el punto dulce profesional. Si mueves parquet/polars y modelos medianos, 64 GB te da aire. Verifica si la RAM es ampliable (SODIMM) o soldada.
En almacenamiento, apunta a NVMe 1–2 TB. Los datasets crecen (y los checkpoints también). Lo ideal es un segundo slot para otro NVMe o tirar de SSD externo USB-C 10–20 Gbps para proyectos y backups. Usar SSD rápidos reduce tiempos de carga y evita que “la vida se vaya entre barras de progreso”.
Sistema operativo y compatibilidad: Windows + WSL2, Ubuntu y macOS (CUDA/ROCm/Metal)
- Windows 11 + WSL2: gran combo si quieres entorno Linux con herramientas Windows. Bien para CUDA con GPUs NVIDIA modernas. Ideal en entornos corporativos.
- Linux (Ubuntu 22.04/24.04): máximo control y rendimiento, drivers maduros para NVIDIA, automatización sencilla; curva de aprendizaje mayor si vienes de Windows.
- macOS (Apple Silicon): experiencia pulida, batería tremenda y stack científico decente; para CUDA puro no vale, pero para ciencia de datos general va de lujo, y siempre puedes usar nube para DL pesado.
Consejo: documenta tu entorno reproducible (requirements.txt/poetry/conda, Docker) para que cambiar de máquina o irte a la nube sea trivial.
Pantalla, batería y peso: productividad real para cuadernos Jupyter y dashboards
Pasarás horas frente a gráficos y celdas. Agradecerás una pantalla 15–16″ 16:10 (más vertical para código), 300–500 nits, y buen color (sRGB 100%). Teclado español cómodo (España y LATAM), trackpad preciso y webcam decente para clases/demos.
En movilidad, 1.3–1.8 kg es ideal para clase/consultoría. Batería real de 8–12 h en tareas ligeras es deseable; la dGPU baja esa cifra, así que valora modos híbridos o perfil “eco” cuando no entrenas.
Mejores portátiles para Ciencia de Datos: Recomendaciones por perfil y presupuesto (Estudiante, Pro móvil, Power user DL)
Estudiante low-cost (prioriza aprender y portabilidad)
- CPU 8 núcleos, 16 GB RAM, NVMe 1 TB, iGPU o dGPU básica.
- Windows + WSL2 o Linux nativo.
- En mi experiencia, con esta base puedes hacer Python, pandas, SQL, scikit-learn y dashboards sin dramas.
Algunos modelos que cumplen estas características son:
Lenovo ThinkPad E16 Gen 2 (AMD, iGPU) — 16GB RAM y 1TB SSD en configuraciones oficiales; Radeon 680M integrada. Por qué: chasis empresarial fiable, teclado ES fácil de conseguir, RAM ampliable a futuro.
ASUS Vivobook 16 (Intel Core i7-1255U, iGPU) — 16GB RAM + 1TB SSD en Amazon; pantalla 16:10. Por qué: relación precio/portabilidad muy buena para Python, pandas y SQL. (Ver en Amazon)
Alternativa Lenovo: IdeaPad Slim 5 (16″ AMD) con Ryzen 7 U; gama “consumer” con opciones de 1TB y buen panel 16:10. Por qué: más ligero que un ThinkPad, suficiente para stack base.
Profesional móvil equilibrado
- CPU 10–14 núcleos, 32 GB RAM, NVMe 2 TB, RTX 4050/4060.
- Pantalla 15–16″ 16:10, buen teclado, 1.5–1.8 kg.
- Ideal para EDA intenso, notebooks, clásicos y DL ligero con iteración rápida.
Algunos modelos que cumplen estas características son:
Lenovo Yoga Pro 7i Gen 9 (14″ Intel, RTX 4050, hasta 32GB) — creador “slim” con dGPU 4050 y hasta 32GB LPDDR5X. Por qué: 1.4–1.6 kg aprox., 16:10 y potencia justa sin volverse ladrillo.
Lenovo LOQ 15 15AHP9 (Ryzen 7 8845HS, RTX 4060, 32GB/1TB) — disponible en Amazon con 32GB RAM y 1TB SSD. Por qué: dGPU 4060 “sweet spot” para probar DL en local sin disparar coste.

Mejores ofertas ahora: Ver en Amazon
ASUS Zenbook Pro 14 Duo (i9-13900H, RTX 4060, 32GB/1TB) — en Amazon con 32GB RAM; formato compacto con pantalla 16:10. Por qué: potencia creativa + portabilidad; ideal para notebooks, EDA y algo de DL. (Ver en Amazon)
Power user DL / Workstation móvil
- CPU 12–16 núcleos, 64 GB RAM, NVMe 2–4 TB, RTX 4070/4080 (12–16 GB VRAM).
- Refrigeración seria, puertos completos, tal vez 2.0–2.5 kg.
- Si tu día a día es fine-tuning y prototipos con lotes medianos, aquí notarás la diferencia.
Algunos modelos que cumplen estas características son:

Lenovo ThinkPad P16 Gen 2 (RTX 4000/5000 Ada, hasta 128GB, hasta 4TB) — workstation oficial Lenovo con GPU profesional y hasta 128GB RAM / 4TB SSD. Por qué: plataforma certificada para stacks de IA, ideal si priorizas estabilidad y VRAM. (Ver en Amazon)
Lenovo ThinkPad P1 Gen 7 (Ultra 9, RTX 4070, 64GB/4TB en Amazon) — versión “ligera” de workstation con 64GB y 4TB en listados actuales. Por qué: equilibrio entre movilidad y músculo para lotes medianos. (Ver en Amazon)
Lenovo Legion Pro 7i Gen 9 (RTX 4080) — gaming-pro de Lenovo con 4080; muy capaz para DL local y pipelines pesados. Por qué: gran TGP y refrigeración; mira configs 32–64GB/1–2TB. (ver en Amazon)
Nota sobre precio: no doy cifras por país porque cambian mucho; en España, México, EE. UU., Chile, Argentina y Perú conviene comparar distribución, teclado y garantía.
Consejos por país: teclado español, garantía y disponibilidad (ES, MX, US-ES, CL, AR, PE)
- España (ES): fácil conseguir teclado español y buenas configuraciones. Revisa devolución y ampliaciones sin perder garantía.
- México (MX): fíjate en layout (muchos llegan en inglés), políticas de DOA y disponibilidad real de RAM ampliable.
- Estados Unidos (US-ES): opciones y precio top, pero muchos modelos vienen en teclado US; puedes comprar “international Spanish” o añadir teclas adhesivas si no te importa.
- Chile/Perú/Argentina (CL/PE/AR): importadores alternan stock; a veces sale mejor comprar SSD/RAM aparte e instalar (si no afecta garantía). Verifica centros de servicio y tiempos de RMA.
Preguntas frecuentes
¿16 GB alcanzan para ciencia de datos?
Para estudiar y análisis ligero, sí. Profesionalmente, 32 GB es el mínimo cómodo. Si tocas DL y parquet pesadito, 64 GB te da oxígeno.
¿Windows, macOS o Linux?
Si necesitas CUDA en local, Windows+WSL2 o Linux con NVIDIA. macOS va perfecto para ciencia de datos general y nublea para DL.
¿Qué VRAM necesito para DL?
Con 8 GB (RTX 4060) haces cosas; con 12–16 GB el flujo mejora muchísimo. Menos de 8 GB es pelear con límites.
¿Vale la pena un SSD de 2 TB?
Sí, entre datasets, checkpoints, entornos y proyectos compartidos, 1 TB se queda corto enseguida.
¿Nube o local para empezar?
Empieza en nube si el presupuesto es limitado; cuando tu flujo lo pida, invierte en una dGPU decente.
Conclusión
Elegir portátil para ciencia de datos es una decisión estratégica. Prioriza CPU sólida, 32 GB de RAM y SSD NVMe grande; suma GPU cuando el caso lo justifique. En mi experiencia, centrarte primero en limpiar, transformar y visualizar con fluidez te devuelve horas de vida y hace que modelar sea un disfrute, no una batalla de recursos.