T: Apakah Hadoop untuk semua orang?
A: Sumber daya penanganan data sumber terbuka Hadoop Apache dan alat terkait menjadi berpengaruh di dunia data besar. Tetapi dalam perlombaan untuk mengadopsi solusi IT yang lebih baru dan lebih modern, perusahaan bertanya apakah Hadoop adalah alat universal yang harus diterapkan secara luas pada data besar dan proses analitik.
Pada kenyataannya, ada beberapa pertimbangan untuk apakah suatu sistem akan mendapat banyak manfaat dari implementasi Hadoop. Salah satunya adalah apakah big data relevan dengan industri. Dengan kata lain, apakah bisnis akan berjalan pada akuisisi dan analisis set data yang sangat besar, set data lebih besar dari apa yang dapat dianalisis menggunakan database relasional tradisional.
Selain itu, perusahaan dapat memilih antara Hadoop dan alat berpemilik lainnya yang mungkin memerlukan sedikit keterampilan teknis di tempat. Beberapa perusahaan teknologi lainnya sedang membangun alat data besar serupa yang mungkin memiliki antarmuka atau pintasan yang lebih intuitif untuk memungkinkan pengguna yang kurang berpengalaman untuk berbuat lebih banyak dengan data besar.
Pada saat yang sama, ada konsensus bahwa sebagian besar proyek data besar dapat mengambil manfaat dari Hadoop dengan administrasi yang memadai. Alat-alat seperti desain gudang Apache Hive dan sintaks pemrograman Apache Pig untuk data besar memperluas apa yang dapat dilakukan Hadoop. Kemajuan lain, seperti Hadapt dan MapR membuat sintaks dan penggunaan Hadoop lebih transparan untuk berbagai pengguna yang lebih luas, atau dengan kata lain, mulai menghilangkan masalah "techiness".
Secara umum, bisnis harus melihat seberapa banyak data besar yang digunakan dan dari mana data itu berasal. Eksekutif dan pemimpin harus mempertimbangkan siapa yang akan mengerjakan proyek-proyek TI yang terlibat, dan keterampilan serta latar belakang mereka. Mereka harus memahami perbedaan antara penerapan berbagai alat data besar. Ini akan membantu tim kepemimpinan memahami apakah Hadoop tepat untuk proyek mereka.