Table of Contents
Sejarah Big Data secara singkat dapat dijelaskan sebagai berikut :
Pada tahun 2005 “teknologi big data” telah dipergunakan namun belum ada penamaan untuk teknologi tersebut akhirnya teknologi tersebut diberikan nama oleh Roger Mougalas bernama “big data”, big data yang dia maksudkan adalah kumpulan dari big data yang berukuran besar yang pada saat itu hampir tidak mungkin dikelola dan diproses oleh traditional business intelligence tools pada saat itu, pada tahun yang sama big data platform Hadoop yang dapat menangani Big Data diluncurkan, hadoop dibuat berdasarkan open source software framework yang dinamakan Nutch dan di gabungkan dengan Google’s MapReduce.
Namun agar dapat lebih mengerti asal muasal big data secara lebih mendalam Timeline Sejarah Big Data secara lengkap :
Sebenarnya catatan awal tentang penggunaan data untuk melacak dan mengendalikan bisnis berasal dari 7000 tahun yang lalu ketika akuntansi diperkenalkan di Mesopotamia untuk mencatat pertumbuhan tanaman dan ternak. Ilmu akuntansi terus meningkat,
Awal mula sejarah big data dimulai pada tahun 1663
sejarah big data di mulai pada tahun 1663 John Graunt mencatat dan memeriksa semua informasi tentang penyebab kematian di London. John ingin mendapatkan pemahaman dan membangun sistem peringatan untuk wabah pes yang sedang berlangsung saat itu.
Dalam catatan analisis data statistik pertama yang tercatat, ia mengumpulkan temuannya dalam buku Natural and Political Observations Made on the Bills of Mortality, yang memberikan wawasan besar tentang penyebab kematian pada abad ketujuh belas. Karena karyanya tersebut, John Graunt dapat dianggap sebagai bapak statistik.
Era Tahun 1887
Pada tahun 1887 Herman Hollerith menemukan mesin komputasi untuk dapat membaca lubang yang dibuat pada kartu kertas untuk mengatur data sensus.
Sejarah Big Data pada Tahun 1937
Proyek mengenai data yang cukup besar pertama dibuat pada tahun 1937 milik Administrasi Franklin D. Roosevelt di Amerika Serikat. Proyek ini muncul setelah Undang-Undang Jaminan Sosial menjadi hukum yang berlaku pada tahun 1937, akibat proyek ini pemerintah harus melacak kontribusi 26 juta orang Amerika dan lebih dari 3 juta pemberi kerja. Maka dari itu IBM dipercaya untuk menyelesaikan proyek besar ini dengan membuat mesin hole punch card.
Era Tahun 1943
Mesin pengolah data pertama kali muncul pada tahun 1943 yang dikembangkan oleh Inggris untuk memecahkan kode tentara Nazi selama Perang Dunia ke 2. Perangkat ini diberi nama Colossus yang bertugas untuk mencari pola dalam pesan yang disadap oleh inggris. Perangkat ini dapat membaca 5000 karakter per detik yang mampu mengurangi waktu pengerjaan yang tadinya membutuhkan berminggu-minggu hanya menjadi dalam hitungan jam.
Era Tahun 1952
Badan Keamanan Nasional (NSA) Amerika dibentuk pada tahun 1952 dan dalam waktu lebih dari 10 tahun, mereka telah mengontrak 12.000 orang ahli kriptografi karena NSA dihadapkan dengan data yang sangat banyak selama perang dingin.
Era Tahun 1965
Pada tahun 1965 Pemerintah Amerika Serikat memutuskan untuk membangun pusat data pertama untuk menyimpan lebih dari 742 juta pengembalian pajak dan 175 juta set sidik jari dengan mentransfer semua catatan tersebut ke pita komputer magnetik yang harus disimpan di satu lokasi. Tidak lama proyek ini kemudian dihentikan, tetapi secara umum diterima bahwa itu adalah awal dari era penyimpanan data elektronik.
Sejarah Big data yang cukup pesat pada Tahun 1989
Sejarah big data cukup berkembang pada tahun 1989 karena di tahun ini ilmuwan komputer Inggris Tim Berners-Lee akhirnya menciptakan World Wide Web. mereka bertujuan untuk memfasilitasi proses berbagi informasi menggunakan sistem ‘hypertext’.
Era Tahun 1995
Pada tahun 1995 data yang ada di dunia sangat banyak karena semakin banyak perangkat yang terhubung ke internet baik itu IoT devices ataupun berbentuk pc. Pada tahun itu juga superkomputer pertama dibangun yang mampu melakukan banyak pekerjaan dalam satu detik daripada kalkulator yang dioperasikan oleh satu orang dalam 30.000 tahun.
Era Tahun 2005
Pada tahun 2005 Roger Mougalas dari O’Reilly Media menciptakan istilah Big Data untuk pertama kalinya, Big Data ini mengacu pada kumpulan data besar yang hampir tidak mungkin untuk dikelola dan diproses menggunakan alat intelijen bisnis tradisional.
2005 juga merupakan tahun dimana Hadoop diciptakan oleh Yahoo! dibangun di atas Google MapReduce. Tujuannya adalah untuk mengindeks seluruh World Wide Web dan saat ini Hadoop open-source digunakan oleh banyak organisasi untuk mengolah data dalam jumlah besar.
Munculnya database biometrik terbesar di dunia pada sejarah big data di tahun 2009
Pada tahun 2009 pemerintah India memutuskan untuk melakukan pemindaian iris mata, sidik jari, dan foto dari semua 1,2 miliar penduduk tersebut. Semua data ini disimpan dalam database biometrik terbesar di dunia.
Perkembangan Era Tahun 2010
Pada tahun 2010 Eric Schmidt berbicara pada konferensi Techonomy di Lake Tahoe di California dan dia menyatakan bahwa “ada 5 exabyte informasi yang diciptakan oleh seluruh dunia antara awal peradaban dan 2003.”
Perkembangan Tahun 2011
Pada tahun 2011 laporan McKinsey tentang Big Data: “The next frontier for innovation, competition, and productivity”, menyatakan bahwa pada tahun 2018 Amerika Serikat akan menghadapi kekurangan 140.000 – 190.000 ilmuwan data scientist dan juga 1,5 juta data manager.
Pada tahun yang sama Facebook meluncurkan Open Compute Project untuk membagikan spesifikasi untuk Data Center yang menggunakan energi secara efisien.
Perkembangan platform big data pada Tahun 2013
Docker diluncurkan sebagai Open source OS Container Software
Perkembangan data center untuk Big Data pada Tahun 2015
Google dan Microsoft memimpin pembangunan data center secara masif
Perkembangan cloud storage di china pada Tahun 2017
Huawei dan tencent bergabung dengan Alibaba membangun Data Center di China
Perkembangan 2018
Pemimpin pasar di dunia data center menggunakan jaringan 400G yang dimana jaringan ini dapat melakukan transfer secepat 400 Gigabyte per detik.
Edge computing lahir di Tahun 2020
Edge Computing mulai muncul dan akan mengubah role “cloud” di sektor utama ekonomi
Transfer rate super cepat pada Tahun 2021
Data center menggunakan jaringan 1000G yang dimana jaringan ini dapat melakukan transfer secepat 1000 Gigabyte per detik
Edge computing Tahun 2025
Data center akan bertambah dan letaknya lebih mendekati ke device untuk mengakomodir kebutuhan edge computing.
Ingin lebih mengenal big data secara lebih lengkap? silahkan membaca artikel ini : ultimate guide big data indonesia