Tagetl

Como criar seu primeiro DataFlow com Apache NiFi

C

Tutorial usando Apache Nifi Nesse artigo vamos mostrar de uma maneira simples como criar um data flow para fazer integração de dados. O Apache Nifi é um projeto Open Source de integração de dados, que integra diversas origens com diversos tipos de destinos, usando bancos de dados, Hadoop (HDFS), Kafka, Spark, entre outros. Conheça mais sobre o Apache Nifi na página do Projeto :  Preparando...

Power Center Informatica – Ferramenta de ETL

P

O Informatica Power Center é uma plataforma de integração de dados corporativos líder de mercado, dimensionável e de alto desempenho, que promove automação, reutilização e agilidade. Principais recursos do Power Center O PowerCenter se constitui na base de todas as iniciativas de integração de dados, incluindo análise e armazenamento de dados, migração de aplicativos ou consolidação e governança...

Data Warehousing DW

D

Data Warehousing Data Warehousing (depósito de dados no Brasil) é um sistema de computação utilizado para armazenar informações relativas às atividades de uma organização em bancos de dados. O desenho da base de dados favorece os relatórios, a análise de dados e a obtenção de informações estratégicas que podem facilitar a tomada de decisão. Data Warehouse O Data Warehouse possibilita a análise de...

O que é ETL – Extract Transform Load?

O

ETL – Extract Transform Load ETL – Extract Transform Load ou ETT,  são as técnicas para Extrair – Transformar – Carregar dados, o processo de ETL normalmente baseado em softwares e programação. Esses softwares, cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e por fim a carga dos dados em um Data Mart ou um Data Warehouse...

Configuração Talend para Hadoop HortonWorks 2.6

C

O termo Big Data é a “menina dos olhos de ouro” da área de T.I atualmente, porem seu conceito ainda está amadurecendo no mercado brasileiro. Existem várias soluções em Big Data e integrações, porém, para que esse artigo não fique muito extenso, vamos focar em realizar algo prático e simples como a transferência de arquivos para uma estrutura de Hadoop usando duas soluções:  O Talend Open Studio...

Talend: Carregamento e Transformação de Dados

T

Nesse artigo vamos trabalhar a leitura de um arquivo, a transformação dos dados carregados, e a carga em um novo arquivo.   Requisitos Fazer o Download do arquivo funcionário.csv << Clique Aqui >>   Passo 1: Cria um Job No repositório clique com o botão direito em Job Designer/ create job No repositório em metadata clique com o botão direito em file delimited/ create em file...

Trabalhando com variáveis globais e contexto | Talend

T

Neste artigo, “Trabalhando com variáveis globais e contexto no Talend”, vamos trabalhar com as variáveis e contextos. Em algumas situações e, dependendo do trabalho que está sendo feito, podemos configurar alguns tipos de execução – Desenvolvimento, produção.   PASSO 1 Clique com o botão direito em Job Design Clique em create Job, de o nome do job variavel_contexto, clique...

Talend: Criando Job simples para ordenação de dados

T

Job simples no Talend para ordenação de dados   Hoje vamos criar um job no talend, para ler um arquivo e fazer a ordenação dos dados.   Requisitos   Fazer Download do arquivo Aula_2.zip < Click Aqui > Esse arquivo será usado para carregar no talend.   Criando o Job   No repositório, ao lado direito do talend click com o botão direito em Job Design Create Job  ...

Posts recentes

Comentários

Arquivos

Categorias

Meta