01/04/2024 updated


100 % available
Data Achtect, Data Enginner, Business Intelligence, Data Warehouse
Sao Pedro da Aldeia, Brazil Master of Business Administration - MBA
Sou um arquiteto de dados sênior experiente, com sólida formação em arquitetura de dados, big data, ciência de dados e liderança. Minha experiência inclui projetar arquiteturas de data lake AWS e Azure, arquiteturas de data warehouse (Top Down, Bottom Up, Intermediate), modelagem multidimensional (Star Schema e Snowflake Schema) e sólidos conhecimentos em Administração de Dados e Integração de Sistemas. Tenho conhecimento em diversas tecnologias, incluindo Hadoop, MapReduce, Spark, PySpark e arquitetura de soluções SOA. Além disso, possuo ampla experiência com serviços de integração REST e SOAP, bem como serviços Azure Cloud como Data Factory, Synapse, Databricks, Gen2, Cosmos DB e Azure SQL Server.
Minha carreira inclui funções como arquiteto e engenheiro de dados na Globant, onde trabalhei na criação de data lakes e visualizações de negócios na nuvem Azure. Também atuei como líder de equipe de ingestão e transformação de dados no AWS Data Lake da Johnson & Johnson. Na WestRock Brasil, implementei um Data Lake em Nuvem AWS e desenvolvi processos ETL utilizando SSIS. Tenho experiência com ferramentas de Business Intelligence, incluindo IBM Cognos, e uma sólida base em programação com linguagens como VB, VB.NET e C# .NET. Além disso, possuo experiência em sistemas SGDB, PL/SQL e T-SQL.
Minha formação educacional inclui Master of Business Administration (MBA) com foco em Big Data e Data Science. Estou continuamente aprimorando minhas habilidades com certificações em aprendizado de máquina, sistemas distribuídos e liderança. Estou empenhado em fornecer soluções de dados de alta qualidade e impulsionar a inovação no campo da arquitetura de dados.
Minha carreira inclui funções como arquiteto e engenheiro de dados na Globant, onde trabalhei na criação de data lakes e visualizações de negócios na nuvem Azure. Também atuei como líder de equipe de ingestão e transformação de dados no AWS Data Lake da Johnson & Johnson. Na WestRock Brasil, implementei um Data Lake em Nuvem AWS e desenvolvi processos ETL utilizando SSIS. Tenho experiência com ferramentas de Business Intelligence, incluindo IBM Cognos, e uma sólida base em programação com linguagens como VB, VB.NET e C# .NET. Além disso, possuo experiência em sistemas SGDB, PL/SQL e T-SQL.
Minha formação educacional inclui Master of Business Administration (MBA) com foco em Big Data e Data Science. Estou continuamente aprimorando minhas habilidades com certificações em aprendizado de máquina, sistemas distribuídos e liderança. Estou empenhado em fornecer soluções de dados de alta qualidade e impulsionar a inovação no campo da arquitetura de dados.
Languages
EnglishFluentPortugueseNative speaker
Project history
ontractor at: JM Family
Project Description: Create a Data Lake and Business Views in Azure Cloud
Responsibilities: Data Architect and Data Engineer
Tech stack: Working as Data Engineer in Microsoft Azure using the following technologies: Synapses, gathering business rules with the client, defining data ingestion strategies with Azure Data Factory, Cosmos DB, Gen2, Synapses, building solutions for Multidimensional Modeling
Contractor at: Bradesco Bank
Project Description: Create a Lake House in Azure Cloud
Responsibilities: Data Architect and Data Engineer
Tech stack: Work as Data Architect/Data Engineer in Microsoft Azure using the following technologies: Azure SQL Server, Python, Data Factory, PySpark, requirements gathering, create strategies to ingestion and transformation data.
Contractor at Johnson & Jonhson
Client name: Johnson & Johnson
Project Description: Ingest data from Nielsen in J&J Data Lake in AWS Cloud,
Multidimensional Modeling
Responsibilities: Team Leader and Data Architect
Tech stack: Work as Data Architect/Data Engineer in AWS Cloud, using the following technologies: S3, Athena, Data Ingestion with Python and Glue, definition of data load strategies in all layers in AWS. multidimensional modeling in Redshift, Microsoft SQL Server (MDS), Multidimensional Modeling
Project Description: Create a Data Lake and Business Views in Azure Cloud
Responsibilities: Data Architect and Data Engineer
Tech stack: Working as Data Engineer in Microsoft Azure using the following technologies: Synapses, gathering business rules with the client, defining data ingestion strategies with Azure Data Factory, Cosmos DB, Gen2, Synapses, building solutions for Multidimensional Modeling
Contractor at: Bradesco Bank
Project Description: Create a Lake House in Azure Cloud
Responsibilities: Data Architect and Data Engineer
Tech stack: Work as Data Architect/Data Engineer in Microsoft Azure using the following technologies: Azure SQL Server, Python, Data Factory, PySpark, requirements gathering, create strategies to ingestion and transformation data.
Contractor at Johnson & Jonhson
Client name: Johnson & Johnson
Project Description: Ingest data from Nielsen in J&J Data Lake in AWS Cloud,
Multidimensional Modeling
Responsibilities: Team Leader and Data Architect
Tech stack: Work as Data Architect/Data Engineer in AWS Cloud, using the following technologies: S3, Athena, Data Ingestion with Python and Glue, definition of data load strategies in all layers in AWS. multidimensional modeling in Redshift, Microsoft SQL Server (MDS), Multidimensional Modeling
Main activities:
Main Activities: Documentation and Design of RestFull APIs in the Microsoft Azure platform, definition of the journey of the APIs along the business areas, survey and understanding the scope of the APIs.
SOA: design of integration solutions through architecture.
Main Activities: Documentation and Design of RestFull APIs in the Microsoft Azure platform, definition of the journey of the APIs along the business areas, survey and understanding the scope of the APIs.
SOA: design of integration solutions through architecture.
Main Activities: Implementation of Data Lake in the AWS Cloud using tools such as S3, Redshift, Glue, ingestion of data in S3 through Apache HIVE and Sqoop, creation of ETL processes with SSIS for API queries to insert data into a Data Warehouse. Dashboard development in Power BI.