Servicios
Modelos y aplicaciones
Especializamos en crear soluciones para clientes que quieren extraer información clave de sus procesos. Es decir, con la gran cantidad de datos disponibles dentro de bases de datos, podemos sacar conclusiones, predecir eventos, condensar información, rellenar datos faltantes, encontrar tendencias, etc. con finalidad de tomar decisiones inteligentes y ahorrar recursos humanos.
Utilizamos varios objetivos (regresión, clasificación, clustering y otros) y modelos (redes neuronales, procesos Gaussianos, auto encoders y otros) para responder a preguntas como:
- ¿Cuándo fallará mi sistema para anticiparlo?
- ¿Cómo puedo minimizar los riesgos para prestar dinero a clientes?
- ¿En qué parte es más probable encontrar minerales en el suelo?
- ¿Dónde enfocar esfuerzos para mitigar incendios o deforestaciones?
- ¿Cómo puedo optimizar la producción de cultivos en cuanto al clima?
Big Data
Cuando definimos big data utilizamos las tres V: volumen, velocidad y variedad. Para gestionar una gran cantidad de flujo de datos, nuevas técnicas han marcado el pasado reciente para resolver partes del problema. Los datos se registran en sensores o fuentes de datos, donde se extraen, transforman y cargan (ETL) en un data lake o warehouse (por ejemplo, SQL, Snowflake, Databricks). Luego, los datos se procesan mediante la gestión de sistemas de clúster donde nodos separados trabajan de forma conjunta y simultánea para alimentar un modelo. Esto se puede hacer con software como Hadoop (incluido Spark), Kubernetes, Azure y muchos otros.
Computer Vision
Las redes neuronales de aprendizaje profundo han logrado grandes avances en la comprensión de imágenes y vídeos. El dominio incluye avances en clasificación de imágenes, detección de objetos y seguimiento de objetos, lo que permite que nuevos modelos interpreten, por ejemplo, imágenes médicas, imágenes de satélite, vídeos para la conducción automática de autos o para reconocimiento facial, lectura de texto en imágenes, etc. Es un campo que se mueve rápidamente con modelos recientes de redes neuronales convolucionales profundas (CNN), incluidos Yo Only Look Once (YOLO), EfficientNet + Feature Pyramid Network (FPN) que utilizan TensorFlow o PyTorch.
Predicción
Un campo clásico del Machine Learning es la clasificación y la regresión, generalmente para la interpolación (imputación) o extrapolación (predicción) de datos. Los kits de herramientas más utilizados incluyen scikit-learn, un kit de herramientas completo en Python con algoritmos para clasificación; agrupamiento; regresión; y reducción de dimensionalidad, y otras herramientas informáticas numéricas generales como NumPy y SciPy. Los datos se cargan y manejan usando Pandas y se pueden ejecutar usando Jupyter Notebooks.
Hemos realizado un trabajo extenso en un Gaussian process regression toolkit ampliamente utilizado por la industria y academia.