Daftar Isi:
Data besar, nama yang mudah diingat untuk volume besar data terstruktur, tidak terstruktur atau semi-terstruktur, terkenal sulit untuk ditangkap, disimpan, dikelola, dibagikan, dianalisis, dan divisualisasikan, setidaknya menggunakan database tradisional dan aplikasi perangkat lunak. Itulah sebabnya teknologi big data memiliki potensi untuk mengelola dan memproses volume data yang sangat besar secara efektif dan efisien. Dan Apache Hadoop yang menyediakan kerangka kerja dan teknologi terkait untuk memproses set data besar di seluruh cluster komputer dengan cara terdistribusi. Jadi, untuk benar-benar memahami data besar, Anda perlu memahami sedikit tentang Hadoop. Di sini kita akan melihat istilah-istilah teratas yang akan Anda dengar sehubungan dengan Hadoop - dan apa artinya.
Webinar: Big Iron, Bertemu Big Data: Membebaskan Data Mainframe dengan Hadoop & Spark Daftar disini |
Tapi Pertama, Lihatlah Bagaimana Hadoop Bekerja
Sebelum masuk ke ekosistem Hadoop, Anda perlu memahami dua hal mendasar dengan jelas. Yang pertama adalah bagaimana file disimpan di Hadoop; yang kedua adalah bagaimana data yang disimpan diproses. Semua teknologi yang terkait dengan Hadoop terutama bekerja pada kedua bidang ini dan membuatnya lebih ramah pengguna. (Dapatkan dasar-dasar bagaimana Hadoop bekerja di Bagaimana Hadoop Membantu Memecahkan Masalah Data Besar.)
Sekarang, ke persyaratan.