Serviços
Modelos e aplicações
Somos especializados em criar soluções para clientes que desejam extrair informações-chave de seus processos. Ou seja, com a vasta quantidade de dados disponíveis nos bancos de dados, podemos tirar conclusões, prever eventos, condensar informações, preencher dados ausentes, encontrar tendências, etc., a fim de tomar decisões inteligentes e economizar recursos humanos.
Utilizamos vários objetivos (regressão, classificação, agrupamento e outros) e modelos (redes neurais, processos gaussianos, autocodificadores e outros) para responder perguntas como, por exemplo:
- Quando meu sistema falhará para antecipá-lo?
- Como posso minimizar os riscos em emprestar dinheiro aos clientes?
- Onde é provável encontrar minerais no solo?
- Onde posso concentrar meus esforços para mitigar os incêndios ou o desmatamento?
- Como posso otimizar a produção agrícola em termos de clima?
Big Data
Quando definimos big data usamos os três Vs: volume, velocidade e variedade. Para gerenciar uma abundância de fluxo de dados, novas técnicas marcaram o passado recente na resolução de partes do problema. Os dados são registrados em sensores ou fontes de dados, onde são extraídos, transformados e carregados (ETL) em um data lake ou warehouse (por exemplo, SQL, Snowflake, Databricks). Os dados são então processados pelo gerenciamento de sistemas de cluster onde trabalham em conjunto e simultaneamente para alimentar um modelo. Isso pode ser feito com software como Hadoop (incluindo Spark), Kubernetes, Azure e muitos outros.
Computer Vision
As redes neurais de aprendizagem profunda fizeram grandes progressos na compreensão de alto nível de imagens e vídeos. O domínio inclui avanços na classificação de imagens, detecção de objetos e rastreamento de objetos, permitindo novos modelos para interpretar, por exemplo, imagens médicas, imagens de satélite, vídeos das rodoviárias para carros de condução automática ou para reconhecimento facial, leitura de texto em imagens, etc. É um campo em rápida evolução com modelos recentes de redes neurais convolucionais profundas (CNN), incluindo Yo Only Look Once (YOLO), EfficientNet + Feature Pyramid Network (FPN) usando TensorFlow ou PyTorch.
Predição
Um campo clássico do Machine Learning é a classificação e regressão, geralmente para interpolação (imputação) ou extrapolação (predição) de dados. Os kits de ferramentas amplamente utilizados incluem o scikit-learn, um kit completo em Python com algoritmos para classificação; agrupamento; regressão; e redução de dimensionalidade, e outras ferramentas gerais de computação numérica, como NumPy e SciPy. Os dados são carregados e manipulados usando Pandas e podem ser executados usando Jupyter Notebooks.
Fizemos um extenso trabalho em um Gaussian process regression toolkit amplamente utilizado pela indústria e academia.