Tagetl

Como criar seu primeiro DataFlow com Apache NiFi

C

Tutorial usando Apache Nifi Nesse artigo vamos mostrar de uma maneira simples como criar um data flow para fazer integração de dados. O Apache Nifi é um projeto Open Source de integração de dados, que integra diversas origens com diversos tipos de destinos, usando bancos de dados, Hadoop (HDFS), Kafka, Spark, entre outros. Preparando Ambiente do Apache Nifi Antes de começar a trababalhar com a...

Power Center Informatica – Ferramenta de ETL

P

O Informatica Power Center é uma plataforma de integração de dados corporativos líder de mercado, dimensionável e de alto desempenho, que promove automação, reutilização e agilidade. Principais recursos do Power Center O PowerCenter se constitui na base de todas as iniciativas de integração de dados, incluindo análise e armazenamento de dados, migração de aplicativos ou consolidação e governança...

Data Warehousing DW

D

Data Warehousing Data Warehousing (depósito de dados no Brasil) é um sistema de computação utilizado para armazenar informações relativas às atividades de uma organização em bancos de dados. O desenho da base de dados favorece os relatórios, a análise de dados e a obtenção de informações estratégicas que podem facilitar a tomada de decisão. Data Warehouse O Data Warehouse possibilita a análise de...

O que é ETL – Extract Transform Load?

O

ETL – Extract Transform Load ETL – Extract Transform Load ou ETT,  são as técnicas para Extrair – Transformar – Carregar dados, o processo de ETL normalmente baseado em softwares e programação. Esses softwares, cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e por fim a carga dos dados em um Data Mart ou um Data Warehouse...

Configuração Talend para Hadoop HortonWorks 2.6

C

O termo Big Data é a “menina dos olhos de ouro” da área de T.I atualmente, porem seu conceito ainda está amadurecendo no mercado brasileiro. Existem várias soluções em Big Data e integrações, porém, para que esse artigo não fique muito extenso, vamos focar em realizar algo prático e simples como a transferência de arquivos para uma estrutura de Hadoop usando duas soluções:  O Talend Open Studio...

Talend: Carregamento e Transformação de Dados

T

Nesse artigo vamos trabalhar a leitura de um arquivo, a transformação dos dados carregados, e a carga em um novo arquivo.   Requisitos Fazer o Download do arquivo funcionário.csv << Clique Aqui >>   Passo 1: Cria um Job No repositório clique com o botão direito em Job Designer/ create job No repositório em metadata clique com o botão direito em file delimited/ create em file...

Trabalhando com variáveis globais e contexto | Talend

T

Neste artigo, “Trabalhando com variáveis globais e contexto no Talend”, vamos trabalhar com as variáveis e contextos. Em algumas situações e, dependendo do trabalho que está sendo feito, podemos configurar alguns tipos de execução – Desenvolvimento, produção.   PASSO 1 Clique com o botão direito em Job Design Clique em create Job, de o nome do job variavel_contexto, clique...

Talend: Criando Job simples para ordenação de dados

T

Job simples no Talend para ordenação de dados   Hoje vamos criar um job no talend, para ler um arquivo e fazer a ordenação dos dados.   Requisitos   Fazer Download do arquivo Aula_2.zip < Click Aqui > Esse arquivo será usado para carregar no talend.   Criando o Job   No repositório, ao lado direito do talend click com o botão direito em Job Design Create Job  ...

Posts recentes

Comentários

Arquivos

Categorias

Meta