Apache Hadoop

On-line

O Apache Hadoop foi criado para atender a necessidade de processar grandes volumes de big data.
Ele é uma plataforma de armazenamento altamente escalável e foi projetado para processar grandes conjuntos de dados em centenas de milhares de nós que operam em computação paralela. Fornecendo assim uma solução de armazenamento de custo eficaz para grandes volumes de dados sem requisitos de formato.
A biblioteca de software do Hadoop é uma estrutura que permite o processamento distribuído de grandes conjuntos de dados em clusters de computadores que utilizam modelos de programação simples.
Ele é projetado para escalar de um único servidor para milhares de máquinas, cada uma oferecendo computação e armazenamento local.
No lugar de confiar em hardware para proporcionar alta disponibilidade, a biblioteca em si é concebido para detectar e tratar falhas na camada de aplicação, de modo a fornecer um serviço altamente disponível no topo de um conjunto de computadores, cada um dos quais sendo propenso a falhas.

BENEFÍCIOS
A principal razão para uma organização usar o Hadoop é a sua “capacidade de armazenar, gerenciar e analisar grandes quantidades de dados estruturados e não estruturados de forma rápida, confiável, flexível e de baixo custo. Ele provê:

Escalabilidade e desempenho – A distribuição do tratamento de dados entre os nós de um cluster Hadoop permite armazenar, gerenciar, processar e analisar dados em escala de petabytes.

Confiabilidade – Os clusters de computação de grande porte são propensos a falhas de nós individuais no cluster. O Hadoop é fundamentalmente resistente – quando um nó falha, seu processamento é redirecionado para os nós restantes no cluster e os dados são automaticamente re-replicado preparando-se para falhas futuras de outros nós.

Flexibilidade – Ao contrário dos sistemas de gerenciamento de banco de dados relacionais tradicionais, você não tem que criar esquemas estruturados antes de armazenar os dados. Você pode armazenar dados em qualquer formato, incluindo formatos semi-estruturados ou não estruturados, e em seguida, analisar e aplicar esquemas para os dados quando acontecer a leitura.

Baixo custo – Ao contrário de software proprietário, o Hadoop é open source e é executado em hardware commodity de custo acessível.

Para quem destina-se esse treinamento:
Empresas que necessitam trabalhar com Big Data e querem gerenciar seus próprios clusters Hadoop;
Profissionais que querem agregar esse conhecimento para atender as necessidades de sua organização ou mesmo agregar diferencial em seus currículos.

Pré-requisitos:
Conhecimentos gerais do Sistema Operacional Linux e das distribuições CentOS, Debian e Ubuntu, tais como, instalação, particionamento e gerenciamento de processos e serviços;
Familiaridade com editores de texto em linha de comando;
Conhecimentos de configuração de redes;
Conhecimentos básicos em Shell Script e lógica de programação;
Conhecimentos de configuração de serviços como Apache, Bind, Squid, etc.

Principais tópicos abordados:
Cenários de configuração;
Instalação dos componentes do Hadoop;
Configuração do Hadoop;
Exemplos de uso.

Carga Horária Sugerida: 16 horas

Metodologia

O curso de Apache Hadoop é ministrado em salas de videoconferência, com transmissão ao vivo pela Internet. A  interação entre Instrutor e alunos é simultânea, ou seja, sem atrasos no envio e recepção ou longas esperas por uma resposta.  

Em nosso curso de Apache Hadoop, a apresentação é em tempo real e todos os arquivos, sites, páginas da Internet, ou qualquer aplicativo que esteja rodando no computador, assim como a tela do instrutor, serão compartilhados com os alunos para um acompanhamento preciso.

O curso de Apache Hadoop é realizado através de nossa metodologia inovadora, dinâmica e eficaz que permite uma experiência prática e real para o aluno, da mesma forma que ele teria em um curso presencial.

A transmissão e recepção de voz, vídeo, textos, imagens, compartilhamento de tela e acesso remoto às máquinas virtuais no curso de Apache Hadoop será simultânea e permitirá a interação de todos os alunos com o instrutor.

A E-COGNI possui uma metodologia ativa e inovadora no processo de ensino e aprendizagem, que tem como foco o desenvolvimento das habilidades e potencialidades do aluno, com o objetivo de torná-lo um profissional altamente capacitado. Os nossos cursos ON-LINE/AO-VIVO são organizados em módulos e podem ser customizados facilmente para atender as necessidades específicas de cada aluno.

Entre em contato com um de nossos Executivos de Vendas e solicite maiores informações sobre nosso curso de Apache Hadoop.

Informações do Curso

  • Aulas 0
  • Questionários 0
  • Duração 16 horas
  • Idioma Português
  • Certificado Sim
Curriculum is empty.
On-line