Big data (mahadata, data raya atau data bandang) merupakan sumber yang tidak terbantahkan dan tidak mungkin direkayasa. Kebijakan berdasar big data menjadi trend dimasa kini dan mendatang karena akurasinya yang mendekati nilai sempurna. Untuk menganalisis big data memerlukan perangkat lunak sehingga kita bisa membaca hasil pengolahan data dengan baik. Banyak sekali perangkat lunak yang bisa digunakan, namun kita fokus kepada pelatihan Hadoop yang populer dikalangan analisis data.
Hadoop adalah perangkat lunak yang mampu menghubungkan banyak komputer agar dapat bekerja sama untuk menyimpan dan mengelola data dalam satu kesatuan. Software ini dirancang agar mampu memproses data bandang dengan membentuk kluster-kluster penyimpanan data dan kemudian diolah bersama-sama. Dalam Pelatihan Hadoop bersama Focus Techno Media kita akan mengulik aplikasi keren ini lebih mendalam.
Secara singkat cara kerja Hadoop adalah sebagai berikut. Hadoop adalah framework yang bekerja dengan mendistribusi dataset dalam jumlah besar ke beberapa mesin berbeda. Data-data ini diproses di waktu yang bersamaan. HDFS digunakan untuk menyimpan data dan MapReduce memproses data tersebut. Sementara, YARN berfungsi untuk membagi tugas. Dalam pelatihan Hadoop ini kita akan mendiskusikan hal-hal berikut:
1. Mengapa Hadoop?
2. Apa itu Hadoop?
3. Hadoop HDFS
4. Hadoop MapReduce
5. Hadoop YARN
6. Kasus penggunaan Hadoop
7. Demo HDFS, MapReduce, dan YARN
Pelatihan akan dilaksanakan selama 3 hari dimulai dari pagi pukul 18.00 hingga sore hari 15.00. Pada saat pelatihan itu ada waktu istirahat, sholat dan makan siang pada pukul 12.00 hingga 13.00. Materi telah disusun secara sistematis sehingga mudah dipahami dan langsung dipraktekkan.
Bila menginginkan pelatihan seperti ini untuk instansi bapak/ibu, bisa menghubungi narahubung Rina, melalui no wa/hp yang selalu tampil disetiap halaman web. Bisa pula menghubungi melalui facebook