“A ignorância mais frequentemente gera confiança do que o conhecimento: são os que sabem pouco, e não os que sabem muito, que afirmam de uma forma tão categórica que este ou aquele problema nunca será resolvido pela ciência.”

Charles Darwin, livro A Descendência do Homem e Seleção em Relação ao Sexo

Olá, Eu sou André Moreira!
Data Scientist |

Sobre

Gerando insights valiosos e ajudando a impulsionar o sucesso dos negócios por meio dos dados.

Cientista de Dados Industrial altamente motivado, apaixonado por ciência e aprendizado. Possuo forte senso analítico, facilidade de aprendizado e gosto de trabalhar de forma colaborativa em equipes multidisciplinares, estabelecendo interfaces eficazes com outros setores.

Sou graduado em Ciência de Dados pela Universidade Estácio de Sá e pós-graduado em Analytics e Inteligência Artificial pelo LabData FIA. Estou preparado para enfrentar desafios complexos e aplicar minhas habilidades analíticas para resolver problemas de negócio, explorando dados, investigando padrões e gerando insights valiosos que impulsionam o sucesso organizacional.

Atuo como redator no Podcast Intervalo de Confiança, que aborda temas relacionados à Ciência, Ciência de Dados e Inteligência Artificial.

Com mais de 10 anos de experiência como Analista Preditivo, sou certificado internacionalmente como Analista de Vibrações CAT-II (conforme ISO 18436.2) e Analista de Lubrificantes de Máquinas I (conforme ISO 18436.4). Tenho sólida experiência em analisar e interpretar o comportamento dinâmico de máquinas rotativas, utilizando técnicas de análise de vibrações, termografia, análise de lubrificantes, ultrassom e ensaios elétricos por MCA/MCE. Realizei diversos cursos em Técnicas de Manutenção Preditiva e ofereci suporte direto à Gerência de Manutenção na tomada de decisões sobre intervenções programadas, baseando-me em laudos preditivos.

Possuo conhecimentos abrangentes em equipamentos industriais dos segmentos de mineração, cimenteira e siderurgia.

Casado, Mineiro, natural de Pedro Leopoldo (moro em Congonhas), Atleticano e Headbanger inveterados. Adoro estar na presença da minha família e amigos. Correr, cozinhar, estar em contato com a natureza (cachoeiras e montanhas), viajar, ler, escrever, assistir séries, filmes e documentários são meus passatempos favoritos. Às vezes jogo videogame quando sobra algum tempo. Apoiador contumaz da divulgação científica.

Stacks para Ciência de Dados

Python

R Studio

SQL

Databricks

Pyspark

Educação & Experiência

Habilidades

Como Cientista de Dados, estou sempre à procura de melhorar minhas habilidades técnicas. Constantemente, faço cursos e pratico em projetos práticos. Acredito que o conhecimento teórico aliado à prática são premissas fundamentais para se tornar um profissional de Dados. O aprendizado contínuo é a chave para atingir a excelência.

Análise Exploratória Dados
Utilização de técnicas estatísticas e visualização de dados para entender padrões e tendências. Ferramentas: Python (Seaborn, Matplotlib, Statsmodels, Ydata_profiling), RStudio (Psych, ggplot2)
0 %
Preparação dos Dados
Consulta, limpeza e transformação de dados para garantir qualidade e consistência. Ferramentas: Python (Pandas, Numpy), RStudio (Dplyr), SQL (MySQL, Postgres), Big Data (Databricks, PySpark).
0 %
Modelagem Estatística Tradicional
Aplicação de modelos estatísticos tradicionais para a análise de dados complexos. Técnicas: Regressão Linear, Logística, Análise de Séries Temporais, Clusterização, Análise de Redes Sociais.
0 %
Machine Learning - Aprendizagem Supervisionada (Regressão e Classificação)
Implementação de modelos de regressão e classificação. Técnicas: Linear Regression, Support Vector Machine, Decision Tree, Random Forest, Gradient Boosting, entre outros. Ferramentas: Python (Scikit-learn, PyCaret).
0 %
Machine Learning - Aprendizagem Supervisionada (Séries Temporais)
Aplicaçã o de modelos específicos para previsão em séries temporais. Técnicas: ARIMA, SARIMA, AutoARIMA. Ferramentas: Python (Scikit-learn, PyCaret).
0 %
Machine Learning - Aprendizagem Não Supervisionada
Utilização de técnicas de clustering para identificar padrões em dados não rotulados. Técnicas: K-Means, Density-Based Spatial Clustering, KNN. Ferramentas: Python (Scikit-learn, PyCaret).
0 %
Métodos de Validação e Avaliação
Avaliação robusta de modelos usando métodos de validação cruzada e interpretação de métricas de desempenho. Métricas: R², MAE, MSE, RMSE, RMSLE, MAPE (regressão), Acurácia, AUC, Recall, Precision, F1-score (classificação). Ferramentas: Python (Scikit-learn, PyCaret).
0 %
Deep Learning
Implementação de modelos usando Redes Neurais Artificiais para a resolução de problemas complexos. Técnicas: Redes Densas, Redes Convolucionais e Redes Recorrentes. Ferramentas: Python (Keras).
0 %
Otimização de Modelos
Ajuste de hiperparâmetros para maximizar a performance dos modelos. Técnicas: Random Search, Grid Search. Ferramentas: Python (Scikit-learn, PyCaret).
0 %

Portfólio

pexels-shkrabaanthony-5816291

Avaliação de Risco de Crédito - Github (clique para ver)

O trabalho visa prever e avaliar o risco de empréstimos para clientes Pessoa Física de uma instituição financeira. Utilizando dados históricos transacionais, serão aplicados modelos estatísticos e algoritmos de Inteligência Artificial para identificar as características mais relevantes que influenciam a decisão de concessão de empréstimos. Com essas informações, a empresa poderá desenvolver estratégias financeiras, criar políticas de empréstimos e implementar ações preventivas, visando reduzir proativamente a taxa de inadimplência.

disco

Predição Tamanho Pelotas - Github (clique para ver)

O objetivo deste projeto é prever o tamanho das pelotas (pellet feed) ao final do processo produtivo em uma indústria siderúrgica global. A predição será baseada em dados históricos coletados por sensores que monitoram cada etapa do processo, utilizando modelos estatísticos e algoritmos de Inteligência Artificial para identificar tendências e padrões. Essa abordagem permitirá estimar com precisão o tamanho das pelotas ao final da produção.

pexels-lum3n-44775-167698

Criação de Cenários com IA Generativa - Github (clique para ver)

O objetivo deste projeto é desenvolver uma inteligência artificial generativa capaz de criar imagens de paisagens, especificamente florestas. Para isso, serão utilizadas técnicas avançadas de Inteligência Artificial, como Deep Convolutional GANs, DCGAN e Self Attention GANs. O modelo será treinado para gerar novas imagens de paisagens com base em padrões aprendidos a partir de um conjunto de dados, permitindo a criação de representações visuais originais e realistas.