/data-explore
EDA inicial sin escribir el boilerplate.
Usage
/data-explore <table-name>
/data-explore <csv-path>
/data-explore <table> --column user_id # focus específico
Salida
1. Schema
- Columnas, tipos, nullable
- Total de filas
- Tamaño estimado
2. Por columna
- Distribución (min/max/mean/median para numéricas)
- Cardinality (distinct count)
- Top values (categóricas)
- % de nulls
- Outliers detectados
3. Relaciones
- Posibles foreign keys (columnas que parecen referencias)
- Correlaciones notables
- Patrones temporales si hay timestamps
4. Calidad de datos
- Filas duplicadas
- Inconsistencias de tipo
- Strings con espacios extras / case mixing
- Fechas en el futuro o pasado lejano
5. Sugerencias
3-5 preguntas que valdría la pena investigar más.
Backends soportados
- PostgreSQL, MySQL, SQLite (vía DATABASE_URL)
- DuckDB (para CSVs grandes)
- Pandas (CSVs <1GB)