Ilość danych we wszystkich domenach wciąż rośnie. Jak możemy skutecznie je wykorzystywać? W książce Poznajemy Sparka przedstawiono Apache Spark, system open source do przetwarzania klastrów, dzięki któremu pisanie i uruchamianie aplikacji analizy danych jest szybsze. Za pomocą Sparka można stawić czoła dużym zbiorom danych za pośrednictwem prostych interfejsów w językach Python, Java i Scala.
Dzięki tej pracy, napisanej przez deweloperów Sparka, naukowcy zajmujący się danymi i inżynierowie dowiedzą się, jak przedstawiać równoległe zadania za pomocą kilku wierszy kodu oraz jak pisać aplikacje od prostych zdań wsadowych do przetwarzania strumieniowego i systemów uczących się.
Informacje zawarte w książce pozwolą im na:
• szybkie zgłębienie możliwości Sparka, takich jak rozproszone zbiory danych, buforowanie w pamięci oraz interaktywna powłoka
• wykorzystywanie wbudowanych bibliotek, łącznie z Spark SQL, Spark Streaming oraz MLlib
• wykorzystywanie paradygmatu programowania zamiast łączenia i dopasowywania narzędzi takich jak Hive, Hadoop, Mahout i Storm
• poznawanie sposobu wykorzystywania aplikacji interakcyjnych, wsadowych i strumieniowych
• dołączanie źródeł danych, np. HDFS, Hive, JSON i S3
• opanowanie zaawansowanych tematów takich jak partycjonowanie i zmienne współdzielone
Spis treści:
1. Wprowadzenie do analizy danych w Sparku
2. Pobieranie Sparka i rozpoczęcie pracy
3. Programowanie z rozproszonymi zbiorami danych RDD
4. Praca z parami klucz-wartość
5. Ładowanie i zapisywanie danych
6. Zaawansowane programowanie w Sparku
7. Uruchamianie Sparka w klastrze
8. Dostrajanie i debugowanie Sparka
9. Spark SQL
10. Spark Streaming
11. Systemy uczące się w MLib
adobe algorytmy apache asp autocad asembler bsd c++ c# delphi dtp excel flash html java javascript linux matlab mysql office php samba voip uml unix visual studio windows word
Księgarnia Informatyczna zaprasza.