Trabajos Prácticos
Material de cursada — Sistemas Distribuidos y Programación Paralela · 2026 · Cátedra Petrocelli.
🏆Autograder — Actividades por clase
Corrección automática semanal. Cada lunes, una o dos actividades nuevas que refuerzan el TP de esa semana. Arranca 05/05/2026 · cierra 15/06/2026.
★ AUTOGRADER · CRONOGRAMA9 actividades incrementales · Lun 05/05 → Dom 15/06
Forkeás → codeás → pusheás → en ~1 min recibís ✅/❌ con detalle. Cada actividad refuerza el TP que están dando esa semana. Incluye intro de cómo funciona el grader, reglas, FAQ y el cronograma completo con links a cada repo.
Práctica I — Introducción
Conceptos básicos para la construcción de Sistemas Distribuidos.
Práctica II — Concurrencia
Arquitecturas concurrentes y coordinación entre procesos distribuidos.
Práctica III — Cloud Computing
Computación distribuida con Kubernetes y RabbitMQ. La Parte 0 es el bootstrap del cluster (prerrequisito); las Partes 1 y 2 son el desarrollo del TP.
Bootstrap del cluster (k3s / k3d)
Prerrequisito: levantar un cluster Kubernetes local en 30 segundos (k3s en Linux/WSL, k3d en Mac/Windows), comandos básicos de kubectl, hello world con Deployment + Service, y mini-anticipo del Hit #1.
TP 3 · PARTE 1Patrones de mensajería + Sobel distribuido
Hit #0 — patrones con RabbitMQ (Message Queue, Pub/Sub, DLQ, Retry). Hit #1 — operador de Sobel distribuido sobre Docker, con tolerancia a fallos.
TP 3 · PARTE 2Cloud Computing — Kubernetes + GKE
Hit #2 — offloading a la nube con Terraform. Hit #3 — cluster GKE escalable con DLQ + backoff + Pub/Sub. Hit #4 — observabilidad con Prometheus + Grafana.
LAB · OPENTOFU + GCPIaC progresivo: VM → VPC → MIG/LB → GKE
Lab opcional para escribir la infraestructura del TP3 con OpenTofu sobre Google Cloud.
Siete etapas independientes que van de una VM básica a un cluster GKE Standard
con app desplegada vía provider kubernetes. Apoyo directo al Hit #2.
Práctica IV — Programación Paralela
GPU computing: shaders, coordenadas UV, filtros y puente conceptual hacia CUDA.
Shaders y GPU computing
Pipeline de renderizado, pixel shaders, manipulación de imágenes en GPU, filtros chroma key, y la transición conceptual hacia CUDA.
LAB CUDASimulador GPU sin placa física
Entorno Docker con dos simuladores: GPGPU-Sim 4.2.1 (execution-driven) y Accel-Sim 1.3.0 (trace-driven). 5 ejercicios sobre Tesla V100 — del vector add a la reducción con shared memory, más una comparativa entre ambos simuladores. Preparación directa para el TP Integrador.
CLUSTER K3S · GPUAcceso al cluster con GPU NVIDIA
La cátedra mantiene un cluster K3s con nodos GPU para todos los grupos. Cada uno recibe su kubeconfig personal (compartido en privado por Discord / aula virtual). Tercer entorno del Lab CUDA — donde corren sus kernels en hardware real y comparan contra los simuladores. También se usa en TP 3 e Integrador.
TP Integrador
Cierre de la cursada: sistema distribuido completo de minería blockchain con CUDA.