O tutorial do Apache Spark fornece conceitos básicos e avançados do Spark. Nosso tutorial Spark foi desenvolvido para iniciantes e profissionais.
Spark é um mecanismo de análise unificado para processamento de dados em grande escala, incluindo módulos integrados para SQL, streaming, aprendizado de máquina e processamento de gráficos.
Nosso tutorial do Spark inclui todos os tópicos do Apache Spark com introdução ao Spark, instalação do Spark, arquitetura do Spark, componentes do Spark, RDD, exemplos em tempo real do Spark e assim por diante.
O que é faísca?
Apache Spark é uma estrutura de computação em cluster de código aberto. Seu objetivo principal é lidar com os dados gerados em tempo real.
O Spark foi construído no topo do Hadoop MapReduce. Ele foi otimizado para rodar na memória, enquanto abordagens alternativas como o MapReduce do Hadoop gravam dados de e para discos rígidos de computador. Portanto, o Spark processa os dados muito mais rápido do que outras alternativas.
História do Apache Spark
O Spark foi iniciado por Matei Zaharia no AMPLab da UC Berkeley em 2009. Seu código-fonte foi aberto em 2010 sob uma licença BSD.
Em 2013, o projeto foi adquirido pela Apache Software Foundation. Em 2014, o Spark surgiu como um projeto Apache de nível superior.
Recursos do Apache Spark
Uso do Spark
Pré-requisito
Antes de aprender Spark, você deve ter um conhecimento básico de Hadoop.
Público
Nosso tutorial Spark foi desenvolvido para ajudar iniciantes e profissionais.
Problemas
Garantimos que você não encontrará nenhum problema com este tutorial do Spark. Porém, se houver algum erro, poste o problema no formulário de contato.