Oleh Staf Techopedia, 22 September 2016
Takeaway: Tuan Rebecca Jozwiak membahas analitik tepi dengan Dr. Robin Bloor, Dez Blanchfield dan Shawn Rogers dari Dell Statistica.
Anda saat ini belum masuk. Silakan masuk atau daftar untuk melihat video.
Rebecca Jozwiak: Hadirin sekalian, halo, dan selamat datang di Hot Technologies 2016. Hari ini kita mendapatkan "Edge Analytics: Akhirnya Ekonomi IoT." Nama saya Rebecca Jozwiak. Saya akan menjadi moderator Anda untuk siaran web hari ini. Kami melakukan tweet dengan tagar # HOTTECH16 jika Anda ingin bergabung dengan percakapan Twitter.
Jadi IOT, pasti menjadi topik hangat tahun ini dan internet tentang berbagai hal, ini benar-benar tentang data mesin, data sensor, data log, data perangkat. Tidak ada yang baru, kami telah memiliki tipe data itu selamanya, tetapi kami belum benar-benar bisa menggunakannya dan sekarang kami hanya melihat satu ton cara baru untuk menggunakan data itu. Khususnya di industri medis, pasar keuangan, dengan minyak dan gas, komoditas, hanya banyak informasi yang sebelumnya belum dimanfaatkan. Dan tidak banyak orang yang benar-benar memahami cara melakukannya dengan baik. Kita berbicara tentang banyak data kecil, tetapi banyak data dan, Anda tahu, ada masalah jaringan, ada perangkat keras yang terlibat, atau perlu diproses, dan bagaimana Anda melakukannya tanpa menyumbat sistem Anda? Nah itulah yang akan kita pelajari hari ini.
Inilah daftar ahli kami. Robin Bloor, kepala analis kami di The Bloor Group. Kami juga memiliki Dez Blanchfield, ilmuwan data kami di The Bloor Group. Dan kami senang memiliki Shawn Rogers, direktur pemasaran global dan saluran dari Dell Statistica. Dan dengan itu, saya akan memberikan bola kepada Robin.
Robin Bloor: Oke, terima kasih untuk itu. Saya akan menekan tombol dan memunculkan slide. Saya tidak tahu mengapa saya membuat gambar apokaliptik ini untuk internet. Mungkin karena saya pikir pada akhirnya akan kacau. Saya akan bergerak lurus. Ini setara dengan kursus dalam presentasi IOT. Anda harus, dengan satu atau lain cara, mengatakan sesuatu yang keterlaluan tentang ke mana perginya semua. Dan sebenarnya, sebagian besar ini mungkin benar. Jika Anda benar-benar melihat cara kurva ini secara bertahap mengembang. Anda tahu, komputer pribadi, smartphone, dan tablet mungkin akan terus meningkat. Smart TV mungkin akan naik. Produk yang dapat dikenakan, mereka mungkin meledak sekarang, dibandingkan dengan apa yang beberapa tahun lalu. Mobil yang terhubung, tak terhindarkan bahwa hampir semua mobil akan terhubung secara luas dan mentransmisikan data sepanjang waktu. Dan yang lainnya. Dan grafik khusus ini oleh BI Intelligence menunjukkan bahwa segala sesuatu yang lain akan lebih penting daripada hal-hal yang jelas, sangat cepat.
Jadi apa yang harus dikatakan tentang IOT? Hal pertama hanyalah titik arsitektur. Anda tahu, ketika Anda memiliki data dan Anda harus memproses Anda, dengan satu atau lain cara, Anda harus menggabungkan keduanya. Dan dengan data pada volume sekarang, dan berkumpul di berbagai tempat, keduanya tidak secara alami bersama lagi. Mereka dulu berada di masa mainframe, kurasa. Jadi Anda dapat berpikir dalam hal ada lapisan pemrosesan, lapisan transportasi dan lapisan data. Dan dalam satu atau lain cara, lapisan transport saat ini akan memindahkan pemrosesan atau memindahkan data di seluruh jaringan. Jadi di sini adalah pilihan: Anda dapat memindahkan data ke pemrosesan, Anda dapat memindahkan pemrosesan ke data, Anda dapat memindahkan pemrosesan dan data ke titik eksekusi yang nyaman, atau Anda dapat membuang pengolahan dan beling data. Dan berkenaan dengan internet hal-hal, data cukup banyak sudah sharded saat lahir dan kemungkinannya adalah bahwa banyak sekali pemrosesan akan di-shard agar aplikasi yang perlu dijalankan dapat terjadi.
Jadi saya sudah melukis gambar. Hal yang menarik bagi saya tentang IoT, saya berbicara tentang domain agregasi dalam diagram ini, dan saya menunjukkan bahwa ada sub-domain. Jadi Anda dapat membayangkan bahwa domain IoT 1 di sini adalah mobil dari beberapa jenis, dan domain 2 dan domain 3 dan domain 4, adalah mobil dari beberapa jenis, dan Anda akan mengumpulkan data secara lokal, Anda akan menjalankan aplikasi lokal pada data itu, dan Anda akan melakukan berbagai hal dalam tindakan. Tetapi untuk memiliki analitik tentang semua mobil, Anda harus mentransfer data ke pusat, tidak harus semua data, tetapi Anda harus agregat di pusat. Dan jika Anda berpikir tentang ini, maka Anda mungkin ingin memiliki banyak, banyak domain agregasi yang berbeda untuk set hal-hal IoT yang sama. Dan domain itu sendiri mungkin agregat lebih lanjut. Jadi Anda bisa memiliki hierarki berulang ini. Dan pada dasarnya yang kami punya di sana adalah jaringan yang sangat kompleks. Jauh lebih kompleks daripada apa pun yang harus kita miliki sebelumnya.
Saya punya catatan di bagian bawah di sini. Semua node jaringan, termasuk node daun, dapat menjadi pencipta data, penyimpanan data, dan titik pemrosesan. Dan itu memberi Anda kemungkinan distribusi, yang belum pernah kita lihat sebelumnya. Dez akan berbicara sedikit lebih banyak tentang itu, jadi saya akan beralih ke titik khusus ini. Setelah kita berada di internet hal-hal dan semua data telah benar-benar menjadi peristiwa, poin tentang slide ini hanya untuk menunjukkan bahwa kita harus melakukan standarisasi pada acara. Kita harus, paling tidak, kita harus memiliki ini. Kita akan memiliki waktu peristiwa itu terjadi, lokasi geografis itu terjadi, lokasi virtual atau logis dari proses yang membuatnya, perangkat sumber yang membuatnya, ID perangkat sehingga Anda tahu persis perangkat sumber yang membuatnya, kepemilikan dari data dan aktor, orang-orang yang memiliki hak untuk menggunakan data dalam beberapa cara atau yang lain, itu harus membawa izinnya, yang berarti benar-benar, itu harus membawa keamanan dengan itu, dan kemudian ada data itu sendiri. Dan ketika Anda melihat ini, Anda menyadari bahwa, Anda tahu, bahkan jika Anda memiliki sensor yang melakukan tidak lebih dari melaporkan suhu sesuatu setiap detik, sebenarnya ada cukup banyak data hanya untuk mengidentifikasi secara tepat di mana data tersebut berasal dan apa itu sebenarnya. Omong-omong, ini bukan daftar lengkap.
Jadi, dalam hal lansekap TI di masa depan, cara saya melihatnya adalah ini: bahwa itu bukan hanya internet, ada juga fakta bahwa kita akan berada di dunia yang dikendalikan oleh aktivitas, dan oleh karena itu kami harus memiliki arsitektur yang digerakkan oleh acara, dan arsitektur tersebut harus menjangkau jaringan besar. Dan yang lainnya adalah real-time semuanya, itu tidak selalu berarti bagi kita untuk menjadi real-time tetapi ada sesuatu yang saya sebut sebagai bisnis-waktu yang merupakan waktu di mana data sebenarnya harus disajikan dan siap untuk diproses. Itu mungkin bukan, satu milidetik setelah itu dibuat. Tetapi selalu ada waktu seperti itu untuk setiap bagian data dan begitu Anda memiliki arsitektur berbasis peristiwa, itu mulai menjadi lebih masuk akal untuk berpikir dalam hal pendekatan waktu nyata dengan cara dunia bekerja.
Jadi mendidih, karena apa yang sebenarnya kita bicarakan adalah analitik pada IoT. Terlepas dari semua itu, masih semua tentang waktu untuk wawasan, dan bukan hanya waktu untuk wawasan, wawasan harus diikuti oleh tindakan. Jadi, waktu untuk wawasan dan waktu untuk bertindak adalah apa yang saya inginkan. Karena itu, saya akan meneruskan bola kembali ke Dez.
Dez Blanchfield: Terima kasih, Robin. Wawasan seperti biasa. Saya suka fakta bahwa itu adalah tindakan yang sulit untuk diikuti pada setiap contoh, tetapi saya akan melakukan yang terbaik.
Salah satu hal yang saya lihat, dan saya sering dihibur olehnya, jujur, dan tidak dalam bentuk miring negatif dan negatif, tetapi ada banyak kekhawatiran dan kepanikan tentang internet dari hal-hal yang mengambil alih dunia dan menempatkan kami dan Anda akan mulai kehilangan data Anda, jadi saya ingin melihat kembali beberapa hal yang telah kami lakukan sebelumnya dalam dua hingga tiga dekade terakhir yang merupakan faksimili yang dekat dengan internet hal, tapi mungkin tidak pada skala yang sama. Dan hanya untuk menunjukkan kepada diri sendiri bahwa kita sebenarnya sudah di sini dan menyelesaikan beberapa masalah, bukan pada tingkat skala ini dan tidak pada kecepatan ini. Karena itu berarti bahwa kita benar-benar dapat menyelesaikan masalah dan kita tahu apa beberapa jawabannya; kita hanya harus berjongkok dan mengajukan kembali beberapa pembelajaran yang kita miliki sebelumnya. Dan saya tahu ini adalah seluruh percakapan yang akan kita lakukan dan saya punya banyak hal menyenangkan hanya untuk diobrolkan di bagian Tanya Jawab.
Tetapi ketika kita berpikir tentang internet dari hal-hal dalam lingkaran, ada banyak sentralisasi saat ini pada tingkat desain yang ditulis pada masa-masa awal. Perangkat Fitbit, misalnya, semua cenderung pergi ke satu tempat sentral dan cenderung di-host di platform cloud di suatu tempat dan semua data dari semua perangkat itu mengenai hal yang sama, katakan saja, ujung depan tumpukan, termasuk web dan aplikasi dan layanan berbasis data. Tetapi seiring berjalannya waktu, skala itu akan membutuhkan rekayasa ulang untuk mengatasi jumlah data yang datang pada mereka dan mereka akan merekayasa ulang sehingga ada banyak ujung depan dan banyak salinan tumpukan di beberapa lokasi dan wilayah. Dan kami melihat ini dan ada sejumlah contoh yang akan saya berikan kepada Anda yang bisa kami diskusikan.
Poin utama dari hal ini adalah bahwa meskipun kita telah melihat beberapa solusi yang akan saya bahas, skala dan volume data dan lalu lintas jaringan yang akan dihasilkan oleh internet dari berbagai hal sangat membutuhkan perubahan dari pusat. untuk arsitektur terdistribusi dalam pandangan saya, dan kami tahu ini, tetapi kami belum tentu memahami apa solusinya. Ketika kita berpikir tentang konsep apa internet hal itu, itu adalah model jaringan skala besar. Banyak hal yang membuat kebisingan. Hal-hal yang tidak membuat kebisingan sampai baru-baru ini. Dan sebenarnya, saya pikir itu kemarin, saya bercanda berbicara tentang tumpukan, tetapi saya pergi untuk membeli pemanggang roti baru dan itu datang dengan opsi yang dapat memberi tahu saya berbagai hal, termasuk ketika itu perlu dibersihkan. Dan microwave baru dengan fitur yang sangat mirip dan bahkan dapat melakukan ping aplikasi pada ponsel saya untuk mengatakan bahwa hal yang saya ulangi sekarang sudah selesai. Dan saya sangat berpendapat bahwa jika ada beberapa hal yang saya tidak ingin berbicara dengan saya itu adalah lemari es, microwave dan pemanggang roti saya. Saya cukup nyaman dengan mereka menjadi perangkat bodoh. Tapi saya punya mobil baru-baru ini, Audi kecil, dan itu memang berbicara kepada saya dan saya cukup senang dengan itu, karena hal-hal yang dibicarakannya adalah hal-hal yang menarik. Seperti memperbarui peta secara waktu nyata untuk memberi tahu saya di mana ada rute yang lebih baik untuk pergi dari titik A ke titik B karena mendeteksi lalu lintas melalui berbagai mekanisme dengan data yang dikirimkan.
Saya punya slide ini. Kita telah melihat bahwa model jaringan volume tinggi memerlukan pergeseran dari pusat ke penangkapan terdistribusi dan pengiriman pemrosesan data dan model analitik. Kami telah melihat banyak hal bergerak dari tiga diagram grafik kecil yang ada di tepi kanan tempat kami mendapatkannya, yang ada di sebelah kiri dari ketiganya, ada model terpusat dengan semua perangkat kecil datang ke lokasi pusat dan mengumpulkan data dan skalanya tidak terlalu bagus, mereka bisa bertahan di sana. Di tengah-tengah kita punya model dan hub yang sedikit lebih terdesentralisasi dan berbicara, yang menurut saya akan kita perlukan dengan internet hal-hal di generasi berikutnya. Dan kemudian di sisi kanan kita punya jaringan yang sepenuhnya terdistribusi dan menyatu ini yang mana internet hal-hal dan mesin-ke-mesin akan pergi dalam jangka waktu yang sangat pendek di masa depan, tapi kita tidak cukup di sana karena berbagai alasan. Dan terutama karena kami menggunakan platform internet untuk sebagian besar komunikasi sejauh ini dan kami belum benar-benar membangun jaringan kedua untuk membawa banyak data ini.
Ada jaringan kedua yang sudah ada seperti jaringan Batelco. Banyak orang tidak memikirkan fakta bahwa jaringan telekomunikasi bukanlah internet. Internet adalah hal yang sangat terpisah dalam banyak hal. Mereka merutekan data dari telepon pintar melalui jaringan telepon, dan kemudian melalui jaringan telepon dan ke internet secara umum di mana mereka sebenarnya meletakkannya di dua jaringan. Tetapi sepenuhnya mungkin dan kemungkinan bahwa internet akan membutuhkan jaringan lain. Kita berbicara tentang internet industri sebagai topik secara umum, yang tidak akan kita bahas sekarang, tetapi pada dasarnya kita berbicara tentang jaringan lain yang dirancang khusus untuk jenis pengangkutan untuk data atau internet barang dan mesin-ke-mesin komunikasi.
Tetapi beberapa contoh yang ingin saya bagikan di mana kami telah melihat jaringan volume tinggi dan data terdistribusi bekerja sangat baik adalah hal-hal seperti internet. Internet secara khusus dirancang dan dirancang sejak hari pertama untuk dapat selamat dari perang nuklir. Jika bagian AS meledak, internet dirancang agar data dapat bergerak di internet tanpa paket yang hilang karena alasan kami masih terhubung. Dan itu masih ada sampai sekarang dalam skala global. Internet memiliki banyak kemampuan di sekitar paket redundansi dan perutean. Dan sebenarnya internet dikendalikan oleh sesuatu yang disebut BGP, Border Gateway Protocol, dan Border Gateway Protocol, BGP, secara khusus dirancang untuk mengatasi router atau switch atau server yang sedang down. Ketika Anda mengirim atau menerima email, jika Anda mengirim tiga email berturut-turut, tidak ada jaminan bahwa masing-masing email tersebut akan mengikuti rute yang sama ke tujuan akhir yang sama. Mereka dapat bergerak melalui berbagai bagian internet karena berbagai alasan. Mungkin ada pemadaman, mungkin ada jendela pemeliharaan di mana hal-hal sedang offline untuk ditingkatkan, mungkin saja ada kemacetan dalam jaringan, dan kita melihat bahwa dengan hal-hal seperti jaringan lalu lintas dengan mobil dan angkutan umum serta kapal dan pesawat. Kami mendapatkan konten ke perangkat kami seperti laptop dan tablet dan komputer kami melalui browser dan sebagainya setiap hari melalui jaringan pengiriman konten. Jaringan pengiriman konten adalah tentang mengambil salinan konten dari platform penyajian utama Anda seperti server web dan memindahkan salinannya dan cache dalam jumlah kecil ke tepi jaringan dan hanya mengirimkannya kepada Anda dari bagian terdekat tepi.
Anti-spam dan cybersecurity - jika suatu peristiwa spam terjadi di Kanada dan Microsoft mendeteksinya dan melihat bahwa ada banyak salinan dari email yang sama yang dikirim ke sekelompok orang secara acak, checksum digunakan, tanda tangan untuk pesan tersebut adalah dibuat dan dimasukkan ke dalam jaringan dan segera didistribusikan. Dan agar email itu tidak pernah masuk ke kotak masuk saya, atau jika itu masuk, segera ditandai sebagai spam karena telah terdeteksi di tempat lain di tepi jaringan. Dan bagian lain dari tepi jaringan diberitahu tentang tanda tangan pesan spam ini dan dimasukkan ke dalam indeks basis data dan jika pesan-pesan itu mulai muncul di sisi lain planet ini, kami mendeteksi dan kami tahu itu adalah spam. Dan hal yang sama berlaku untuk keamanan siber. Peretasan yang terjadi di satu sisi planet ini terdeteksi dan didaftarkan dan dipetakan dan tiba-tiba di bagian lain dari jaringan kita dapat melawannya dan mengajukan aturan dan kebijakan serta mengubah untuk melihat apakah kita dapat memblokirnya. Terutama dengan dampak baru dari hal-hal seperti penolakan layanan atau distribusi penolakan layanan di mana ribuan mesin digunakan untuk menyerang situs web pusat.
Bitcoin dan blockchain, secara default, pada dasarnya adalah buku besar yang didistribusikan, blockchain, dan berupaya dengan setiap pemadaman atau kerusakan dalam jaringan. Deteksi dan pencegahan penipuan, utilitas listrik dan air - kita lihat, Anda tahu jaringan listrik, jika salah satu bagian dari jaringan mendapatkan tanah pohon di atasnya dan mengeluarkan sebuah tiang dan kawat, rumah saya masih mendapatkan daya. Saya bahkan tidak tahu tentang itu, saya bahkan sering tidak melihatnya di berita. Dan kita semua terbiasa dengan jaringan transportasi di mana awalnya ada model terpusat, "Semua jalan menuju Roma, " seperti yang mereka katakan, dan kemudian akhirnya kita harus pergi ke model desentralisasi dengan hub dan jari-jari, dan kemudian kita pergi ke jaringan yang terhubung di mana Anda bisa mendapatkan dari satu sisi kota ke yang lain melalui berbagai rute yang terhubung dan persimpangan yang berbeda. Jadi apa yang kita lihat di sini adalah bahwa model terpusat dari apa yang kita lakukan sekarang dengan internet ini harus mendorong keluar ke tepi jaringan. Dan ini berlaku untuk analitik lebih dari sebelumnya, dan itu adalah bahwa kita perlu mendorong analitik ke dalam jaringan. Dan untuk melakukan itu diperlukan pendekatan yang sama sekali baru dalam cara kami mengakses dan memproses data dan aliran data, dalam pandangan saya. Kita berbicara tentang sebuah skenario sekarang di mana saya percaya kita melihat intelijen terbatas didorong ke tepi jaringan pada perangkat yang terhubung internet, tetapi kita akan segera melihat perangkat tersebut meningkatkan kecerdasan dan meningkatkan tingkat analitik yang mereka inginkan melakukan. Dan sebagai hasilnya kita perlu mendorong kecerdasan itu semakin jauh melalui jaringan.
Misalnya, aplikasi pintar dan media sosial - jika kita berpikir tentang media sosial dan beberapa aplikasi pintar, mereka masih sangat sentral. Anda tahu, hanya ada dua atau tiga pusat data untuk orang-orang seperti Facebook. Google menjadi jauh lebih terdesentralisasi, tetapi masih ada sejumlah pusat data di seluruh dunia. Kemudian ketika kita berpikir tentang personalisasi konten, Anda harus berpikir di tingkat yang sangat lokal. Banyak yang dilakukan di browser Anda atau pada lapisan jaringan pengiriman konten lokal. Dan kami berpikir tentang pelacak kesehatan dan kebugaran - banyak data yang dikumpulkan dari mereka sedang dianalisis secara lokal sehingga versi baru dari perangkat Garmin dan Fitbit yang Anda pasang di pergelangan tangan Anda, mereka menjadi semakin pintar di perangkat. . Mereka sekarang tidak mengirim semua data tentang detak jantung Anda kembali ke server terpusat untuk mencoba dan menyelesaikan analisis; mereka sedang membangun kecerdasan itu langsung ke perangkat. Navigasi dalam mobil, dulunya mobil akan terus mendapatkan pembaruan dan peta dari lokasi pusat, sekarang kecerdasan berada di dalam mobil dan mobil membuat keputusan dengan sendirinya dan akhirnya mobil akan bertautan. Mobil-mobil akan berbicara satu sama lain melalui jaringan nirkabel dalam beberapa bentuk, yang mungkin melalui jaringan nirkabel 3G atau 4G di generasi berikutnya, tetapi pada akhirnya akan menjadi perangkat ke perangkat. Dan satu-satunya cara kita akan mengatasi volume itu adalah dengan membuat perangkat lebih pintar.
Kami sudah memiliki sistem peringatan darurat yang akan mengumpulkan informasi secara lokal dan mengirimkannya secara terpusat atau ke jaringan mesh dan membuat keputusan tentang apa yang terjadi secara lokal. Misalnya, di Jepang, ada aplikasi yang dijalankan orang di smartphone mereka dengan accelerometer di smartphone. Akselerometer pada telepon pintar akan mendeteksi getaran dan gerakan dan dapat menentukan perbedaan antara gerakan sehari-hari yang normal dengan getaran dan guncangan gempa bumi. Dan telepon itu akan mulai memperingatkan Anda segera, secara lokal. Aplikasi yang sebenarnya tahu bahwa ia mendeteksi gempa bumi. Tetapi ia juga membagikan data itu melalui jaringan di hub yang didistribusikan dan berbicara model sehingga orang-orang di dekat Anda segera diperingatkan atau secepat mungkin ketika data mengalir melalui jaringan. Dan akhirnya ketika sampai ke lokasi pusat atau salinan dari lokasi pusat itu mendorong kembali ke orang-orang yang tidak berada di daerah terdekat, belum mendeteksi pergerakan planet ini, tetapi perlu diperingatkan karena mungkin tsunami akan datang.
Dan infrastruktur kota pintar - konsep infrastruktur cerdas, kami telah membangun kecerdasan menjadi bangunan pintar dan infrastruktur cerdas. Bahkan, kemarin saya memarkir mobil saya di kota di daerah baru di mana bagian kota diperbaiki dan dibangun kembali. Dan mereka telah melakukan ulang semua jalan, dan ada sensor di jalan, dan meteran parkir yang sebenarnya tahu bahwa ketika saya mengemudi dengan mobil, ia tahu bahwa ketika saya pergi untuk menyegarkan kembali untuk batas dua jam yang mobil belum bergerak, dan itu tidak benar-benar membiarkan saya mengisi dan tinggal selama dua jam. Saya harus masuk ke dalam mobil, keluar dari ruang dan kemudian menarik kembali untuk mengelabui agar saya tinggal di sana selama dua jam. Tapi yang menarik adalah bahwa pada akhirnya kita akan pergi ke titik di mana itu tidak hanya mendeteksi mobil memasuki area sebagai sensor lokal, tetapi hal-hal seperti karakteristik optik di mana pengakuan akan diterapkan dengan kamera melihat plat nomor saya, dan itu akan tahu bahwa saya sebenarnya baru saja menarik dan menarik kembali dan menipu, dan itu tidak akan membiarkan saya memperbarui dan saya akan pindah. Dan kemudian itu akan mendistribusikan data itu dan memastikan bahwa saya tidak bisa melakukan itu di tempat lain dan menipu jaringan secara berkelanjutan juga. Karena itu, secara alami, harus lebih pintar, kalau tidak kita semua akan terus membodohinya.
Ada sebuah contoh dari hal ini yang sebenarnya saya pernah tinggal secara pribadi di mana dalam teknologi firewall, pada akhir '80 -an dan awal '90 -an, sebuah produk bernama Check Point FireWall-1. Teknologi firewall yang sangat sederhana yang kami gunakan untuk membuat aturan dan membangun kebijakan dan aturan di sekitar hal-hal tertentu untuk mengatakan bahwa jenis lalu lintas melalui port tertentu dan alamat IP dan jaringan untuk mencapai dan dari satu sama lain, lalu lintas web dari satu tempat ke tempat lain, pergi dari browser dan klien ke ujung server kami. Kami memecahkan masalah ini dengan benar-benar mengeluarkan logika dari firewall itu sendiri dan benar-benar memindahkannya ke ASIC, sirkuit terintegrasi khusus aplikasi. Itu mengendalikan port di switch Ethernet. Kami menemukan bahwa komputer server, komputer yang sebenarnya kami gunakan sebagai server untuk membuat keputusan sebagai firewall, tidak cukup kuat untuk menangani volume lalu lintas yang melalui mereka untuk setiap sedikit paket inspeksi. Kami memecahkan masalah dengan memindahkan logika yang diperlukan untuk melakukan inspeksi paket dan deteksi internet ke switch jaringan yang didistribusikan dan mampu menangani volume data yang melewati tingkat jaringan. Kami tidak khawatir tentang hal itu di tingkat terpusat dengan firewall, kami memindahkannya ke sakelar.
Jadi kami meminta pabrikan membangun kemampuan bagi kami untuk mendorong jalur dan aturan serta kebijakan ke switch Ethernet sehingga pada level port Ethernet yang sebenarnya, dan mungkin banyak orang di kolam tidak mengetahui hal ini karena kami semua hidup di dunia nirkabel sekarang, tetapi sekali waktu semuanya harus terhubung melalui Ethernet. Sekarang di level port Ethernet kami melakukan inspeksi paket untuk melihat apakah paket-paket itu bahkan dibiarkan berpindah ke switch dan masuk ke jaringan. Beberapa dari ini adalah apa yang kami selesaikan sekarang di sekitar tantangan ini dalam menangkap data di jaringan, khususnya dari perangkat IRT, dan memeriksanya serta melakukan analisis padanya dan mungkin menganalisisnya secara real time untuk mengambil keputusan. Dan beberapa di antaranya untuk mendapatkan wawasan dalam intelijen bisnis dan informasi tentang bagaimana manusia membuat keputusan yang lebih baik dan analitik serta kinerja lainnya untuk hal-hal tingkat mesin-ke-mesin di mana perangkat berbicara dengan perangkat dan membuat keputusan.
Dan ini akan menjadi tren yang harus kita perhatikan dalam penyelesaian dalam waktu dekat karena jika tidak, kita hanya akan berakhir dengan gelombang kebisingan ini. Dan kami telah melihat di dunia data besar, kami telah melihat hal-hal seperti danau data berubah menjadi rawa-rawa data yang baru saja berakhir dengan banjir derau yang kami belum menemukan cara menyelesaikan analitik pemrosesan untuk secara terpusat mode. Jika kita tidak menyelesaikan masalah ini, dalam pandangan saya, dengan IOT segera dan mendapatkan solusi platform dengan sangat cepat kita akan berakhir di tempat yang sangat, sangat buruk.
Dan dengan itu dalam pikiran saya akan menutup dengan poin saya yaitu bahwa saya percaya bahwa salah satu perubahan terbesar yang terjadi dalam data besar dan ruang analisis sekarang sedang didorong oleh kebutuhan mendesak untuk bereaksi terhadap dampak internet hal-hal pada analitik volume tinggi dan real-time, dalam hal itu kita perlu memindahkan analitik ke dalam jaringan dan kemudian pada akhirnya ke tepi jaringan hanya untuk mengatasi volume semata, hanya untuk memprosesnya. Dan akhirnya, semoga, kami menempatkan intelijen ke dalam jaringan dan tepi jaringan dalam sebuah hub dan berbicara model yang sebenarnya dapat kami kelola dan dapatkan wawasan secara waktu nyata dan dapatkan nilai darinya. Dan dengan itu saya akan beralih ke tamu kita dan melihat ke mana pembicaraan ini membawa kita.
Shawn Rogers: Terima kasih banyak. Ini Shawn Rogers dari Dell Statistica, dan bocah, hanya untuk memulainya, saya sepenuhnya setuju dengan semua topik utama yang telah disentuh di sini. Dan Rebecca, Anda mulai dengan ide seputar, Anda tahu, data ini bukan hal baru, dan luar biasa bagi saya berapa banyak waktu dan energi yang dihabiskan untuk mendiskusikan data, data, data dari IoT. Dan itu pasti relevan, Anda tahu, Robin membuat poin yang bagus, bahkan jika Anda melakukan sesuatu yang sangat sederhana dan Anda menggunakan termostat sekali setiap detik, Anda tahu, Anda melakukannya 24 jam sehari dan Anda benar-benar memiliki, Anda tahu, beberapa tantangan data yang menarik. Tapi, Anda tahu, pada akhirnya - dan saya pikir banyak orang di industri berbicara tentang data dengan cara ini - bahwa itu tidak terlalu menarik dan, menurut pendapat Rebecca, ini sudah ada sejak lama, tetapi kami di masa lalu belum dapat memanfaatkannya dengan baik. Dan saya pikir industri analitik canggih dan industri BI secara umum mulai benar-benar beralih ke IoT. Dan Dez, sampai titik akhir Anda, ini menjadi bagian dari atau salah satu titik tantangan lanskap data besar yang saya pikir sangat benar. Saya pikir semua orang sangat gembira tentang apa yang bisa kita lakukan dengan tipe data ini, tetapi pada saat yang sama, jika kita tidak dapat menemukan cara menerapkan wawasan, mengambil tindakan dan, Anda tahu, mendapatkan analitik di mana data itu, saya pikir kita akan menghadapi tantangan yang tidak dilihat orang-orang.
Dengan itu, di ruang analitik lanjutan, kami penggemar besar dari apa yang kami pikir dapat terjadi dengan data IoT, terutama jika kami menerapkan analitik padanya. Dan ada banyak informasi slide ini dan saya akan membiarkan semua orang berburu dan mematuk, tetapi jika Anda melihat sektor yang berbeda seperti ritel di ujung kanan, melihat peluang mereka muncul untuk menjadi lebih inovatif atau memiliki beberapa penghematan biaya atau optimasi proses atau perbaikan sangat penting dan mereka melihat banyak kasus penggunaan untuk itu. Jika Anda melihat, Anda tahu, dari kiri ke kanan melintasi slide, Anda akan melihat bagaimana masing-masing industri ini mengklaim kemampuan baru dan peluang diferensiasi baru untuk diri mereka sendiri ketika mereka menerapkan analitik pada IoT. Dan saya pikir intinya adalah, jika Anda akan berusaha untuk turun ke jalan itu, Anda tidak hanya harus khawatir tentang data, seperti yang telah kita bahas, dan arsitekturnya, tetapi Anda juga harus melihat cara terbaik untuk melakukannya. menerapkan analitik padanya dan di mana analitik perlu dilakukan.
Untuk banyak dari kita yang menelepon hari ini, Anda tahu, Robin dan saya sudah saling kenal sejak lama dan memiliki banyak sekali percakapan tentang arsitektur tradisional di masa lalu, orang-orang di sekitar database terpusat atau gudang data perusahaan dan sebagainya, dan seperti yang kita Kami telah menemukan selama dekade terakhir atau lebih, kami melakukan pekerjaan yang cukup baik untuk memperluas keterbatasan infrastruktur tersebut. Dan mereka tidak tabah atau sekuat yang kita inginkan hari ini untuk mendukung semua analitik hebat yang kita terapkan pada informasi dan tentu saja informasi itu menghancurkan arsitektur juga, Anda tahu, kecepatan data, volume data, dan sebagainya, jelas memperluas batasan dari beberapa pendekatan dan strategi kami yang lebih tradisional untuk jenis pekerjaan ini. Jadi saya pikir ini semacam mulai menyerukan perlunya perusahaan untuk mengambil sudut pandang yang lebih gesit dan mungkin lebih fleksibel dan itulah bagiannya, saya kira, saya ingin berbicara sedikit tentang sisi IOT.
Sebelum saya melakukannya, saya akan meluangkan waktu sejenak untuk membiarkan semua orang di telepon, memberi Anda sedikit latar belakang tentang apa Statistica itu dan apa yang kami lakukan. Seperti yang Anda lihat pada judul slide ini, Statistica adalah analitik prediktif, data besar, dan visualisasi untuk platform IoT. Produk itu sendiri berusia sedikit di atas 30 tahun dan kami bersaing dengan para pemimpin lain di pasar yang mungkin Anda kenal sepanjang masa untuk dapat menerapkan analisis prediktif, analitik lanjutan ke data. Kami melihat peluang untuk memperluas jangkauan kami di mana kami menempatkan analisis kami dan mulai mengerjakan beberapa teknologi beberapa waktu lalu yang telah menempatkan kami dengan cukup baik untuk mengambil keuntungan dari apa yang telah dibicarakan baik oleh Dez dan Robin hari ini, yang merupakan pendekatan baru ini dan di mana Anda akan meletakkan analitik dan bagaimana Anda akan menggabungkannya dengan data. Bersamaan dengan itu muncul hal-hal lain yang harus bisa Anda tangani dengan platform, dan seperti yang saya sebutkan, Statistica sudah lama berada di pasar. Kami sangat mahir dalam hal memadukan data dan saya pikir, Anda tahu, kami belum banyak bicara tentang akses data hari ini, tetapi mampu menjangkau seluruh jaringan yang beragam ini dan mendapatkan data yang tepat di tangan Anda. waktu yang tepat menjadi semakin menarik dan penting bagi pengguna akhir.
Terakhir, saya akan berkomentar satu lagi di sini, karena Dez membuat poin bagus tentang jaringan itu sendiri, memiliki beberapa tingkat kontrol dan keamanan atas model analitik di seluruh lingkungan Anda dan bagaimana mereka melampirkan diri mereka pada data menjadi sangat penting. Ketika saya masuk ke industri ini beberapa tahun yang lalu - hampir 20 saya pikir pada titik ini - ketika kita berbicara tentang analitik canggih, itu dalam cara yang sangat dikuratori. Hanya beberapa orang dalam organisasi yang memiliki tangan di atasnya, mereka mengerahkannya dan mereka memberi orang jawaban yang diperlukan atau memberikan wawasan sebagaimana diperlukan. Itu benar-benar berubah dan apa yang kita lihat adalah banyak orang yang bekerja dengan satu atau lebih cara yang beragam dan lebih fleksibel untuk mencapai data, menerapkan keamanan dan tata kelola data, dan kemudian dapat berkolaborasi. Itulah beberapa hal penting yang dilihat Dell Statistica.
Tetapi saya ingin menyelami topik yang sedikit lebih dekat dengan judul hari ini yaitu, bagaimana seharusnya kita menangani data yang berasal dari internet tentang berbagai hal dan apa yang mungkin ingin Anda cari ketika Anda mencari solusi yang berbeda. Slide yang saya bangun di depan Anda sekarang adalah jenis pandangan tradisional dan Dez dan Robin agak menyentuh ini, Anda tahu, ide untuk berbicara dengan sensor, apakah itu mobil atau pemanggang roti atau turbin angin, atau apa pun yang Anda miliki, dan kemudian memindahkan data itu dari sumber data ke jaringan Anda kembali ke jenis konfigurasi terpusat, seperti yang disebutkan Dez. Dan jaringannya cukup baik dan banyak perusahaan masuk ke ruang IoT yang awalnya mulai melakukannya dengan model itu.
Hal lain yang muncul, jika Anda melihat ke bagian bawah slide, adalah gagasan untuk mengambil sumber data tradisional lainnya, menambah data IoT Anda dan kemudian pada inti semacam ini, apakah inti Anda kebetulan merupakan pusat data atau itu mungkin ada di awan, itu tidak masalah, Anda akan mengambil produk seperti Statistica dan kemudian menerapkan analitik padanya pada saat itu dan kemudian memberikan wawasan tersebut kepada konsumen dengan benar. Dan saya pikir ini adalah taruhan meja saat ini. Ini adalah sesuatu yang harus dapat Anda lakukan dan Anda harus memiliki arsitektur yang cukup terbuka untuk platform analitik canggih dan berbicara dengan semua ini, semacam, beragam sumber data, semua sensor ini dan semua tujuan berbeda di mana Anda memiliki data. Dan saya pikir ini adalah sesuatu yang harus Anda dapat lakukan dan saya pikir Anda akan merasa benar bahwa banyak pemimpin di pasar dapat melakukan hal-hal seperti ini. Di sini, di Statistika kami berbicara tentang ini sebagai analitik inti. Pergi mendapatkan data, bawa kembali data ke inti, proses, tambahkan lebih banyak data jika perlu atau jika menguntungkan, dan lakukan analisis Anda dan kemudian bagikan informasi itu untuk tindakan atau wawasan.
Jadi saya pikir itu tentu saja dari sudut pandang fungsi, kita mungkin semua setuju bahwa, Anda tahu, ini adalah kebutuhan mendasar dan semua orang perlu melakukan ini. Di mana mulai menjadi agak menarik adalah di mana Anda memiliki sejumlah besar data, Anda tahu, berasal dari berbagai sumber data, seperti sensor IoT, seperti yang saya sebutkan, apakah itu mobil atau kamera keamanan atau proses pembuatan, mulai ada keuntungan untuk dapat melakukan analitik di mana data sebenarnya diproduksi. Dan keuntungan bagi kebanyakan orang, saya pikir, ketika kita mulai memindahkan analitik dari inti ke tepi adalah kemampuan ini untuk menyebarkan beberapa tantangan data yang sedang terjadi, dan Dez dan Robin mungkin akan mengomentari ini pada akhirnya hari ini, tetapi saya pikir Anda harus dapat memantau dan mengambil tindakan terhadap data di ujung sehingga tidak selalu perlu untuk memindahkan semua data ke jaringan Anda. Robin membicarakan hal ini dalam gambar arsitekturnya yang ia buat, di mana Anda memiliki semua sumber berbeda ini, tetapi biasanya ada beberapa titik agregasi. Titik agregasi yang sering kita lihat adalah pada level sensor, tetapi bahkan lebih sering pada level gateway. Dan gateway ini ada sebagai semacam perantara dalam aliran data dari sumber data sebelum Anda kembali ke inti.
Salah satu peluang yang diambil Dell Statistica adalah kemampuan kami untuk mengekspor model dari platform analytics canggih kami yang terpusat untuk dapat mengambil model dan kemudian mengeksekusi model itu di tepi pada platform yang berbeda, seperti gateway atau di dalam dari database, atau apa pun. Dan saya pikir fleksibilitas yang memberi kita hal yang paling menarik dari percakapan hari ini adalah, apakah Anda memilikinya dalam infrastruktur Anda hari ini? Apakah Anda mampu memindahkan analitik ke tempat data hidup versus hanya selalu memindahkan data ke tempat analisis Anda? Dan itu adalah sesuatu yang sedang difokuskan Statistica untuk beberapa waktu, dan ketika Anda melihat lebih dekat pada slide Anda akan melihat bahwa ada beberapa teknologi lain di sana dari saudara perusahaan kami, Dell Boomi. Dell Boomi adalah platform integrasi data dan integrasi aplikasi di cloud dan kami benar-benar memanfaatkan Dell Boomi sebagai perangkat perdagangan untuk memindahkan model kami dari Dell Statistica, melalui Boomi dan perangkat off to edge. Dan kami berpikir bahwa ini adalah pendekatan gesit yang akan dituntut perusahaan, sebanyak yang mereka sukai dari versi yang saya tunjukkan kepada Anda satu menit yang lalu, yang merupakan ide inti untuk memindahkan data dari sensor sepanjang kembali ke pusat, pada saat yang sama perusahaan akan ingin dapat melakukannya dengan cara yang saya uraikan di sini. Dan keuntungan dari melakukan ini adalah pada beberapa poin yang dibuat oleh Robin dan Dez, yaitu, dapatkah Anda membuat keputusan dan mengambil tindakan dengan kecepatan bisnis Anda? Dapatkah Anda memindahkan analitik dari satu tempat ke tempat lain dan dapat menghemat waktu, uang dan energi serta kerumitan untuk terus-menerus memindahkan data tepi itu kembali ke inti.
Sekarang saya yang pertama mengatakan bahwa beberapa data tepi akan selalu memiliki nilai yang cukup tinggi di mana masuk akal untuk menyimpan data itu dan menyimpannya dan membawanya kembali ke jaringan Anda, tetapi analitik tepi apa yang memungkinkan Anda untuk lakukan adalah kemampuan untuk mengambil keputusan dengan kecepatan yang sebenarnya terjadi pada data, bukan? Bahwa Anda dapat menerapkan wawasan dan tindakan pada kecepatan di mana nilai setinggi mungkin. Dan saya pikir itu adalah sesuatu yang kita semua akan cari ketika datang untuk menggunakan analitik canggih dan data IoT adalah kesempatan ini untuk bergerak dengan kecepatan bisnis atau kecepatan yang dituntut pelanggan. Saya pikir posisi kami adalah, saya pikir Anda harus dapat melakukan keduanya. Dan saya pikir itu segera dan sangat cepat karena semakin banyak perusahaan melihat kumpulan data yang lebih beragam, terutama yang dari sisi IoT, mereka akan mulai melihat ruang vendor dan menuntut apa yang mampu dilakukan Statistica. Yaitu dengan menyebarkan model pada intinya, seperti yang telah kami lakukan secara tradisional selama bertahun-tahun, atau untuk menyebarkannya pada platform yang mungkin mungkin non-tradisional, seperti gateway IoT, dan untuk benar-benar dapat mencetak dan menerapkan analitik pada data di tepi sebagai data yang dihasilkan. Dan saya pikir di situlah bagian yang menarik dari percakapan ini masuk. Karena dengan dapat menerapkan analitik pada saat data keluar dari sensor, memungkinkan kita untuk mengambil tindakan secepat yang kita butuhkan, tetapi juga memungkinkan kita untuk memutuskan, apakah data ini harus segera kembali ke inti? Bisakah kita batch itu di sini dan kemudian mengirimnya kembali menjadi beberapa bagian dan melakukan analisis lebih lanjut nanti? Dan itulah yang kami lihat dilakukan oleh banyak pelanggan utama kami.
Cara Dell Statistica melakukan ini adalah kami memiliki kemampuan memanfaatkan, jadi katakanlah misalnya Anda membangun jaringan saraf di dalam Statistica dan Anda ingin menempatkan jaringan saraf di tempat lain di lanskap data Anda. Kami memiliki kemampuan mengeluarkan model-model itu dan semua bahasa yang Anda perhatikan di sudut kanan sana - Java, PPML, C dan SQL dan seterusnya, kami juga menyertakan Python dan kami juga dapat mengekspor skrip kami - dan saat Anda memindahkannya dari platform kami yang terpusat, Anda kemudian dapat menggunakan model itu atau algoritma itu di mana pun Anda membutuhkannya. Dan seperti yang saya sebutkan sebelumnya, kami menggunakan Dell Boomi untuk meletakkannya dan memarkirnya di tempat yang kami perlukan untuk menjalankannya dan kemudian kami dapat mengembalikan hasilnya, atau kami dapat membantu mengembalikan data, atau skor data dan mengambil tindakan menggunakan mesin aturan kami . Semua hal itu menjadi sangat penting ketika kita mulai melihat jenis data ini dan kita berpikir lagi.
Ini adalah sesuatu yang sebagian besar dari Anda di telepon akan perlu melakukannya karena akan menjadi sangat mahal dan membebani jaringan Anda, seperti yang disebutkan Dez, untuk memindahkan data dari kiri diagram ini ke kanan diagram ini melalui waktu. Kedengarannya tidak banyak, tetapi kami telah melihat pelanggan manufaktur dengan sepuluh ribu sensor di pabrik mereka. Dan jika Anda memiliki sepuluh ribu sensor di pabrik Anda, bahkan jika Anda hanya melakukan tes atau sinyal kedua jenis ini, Anda sedang berbicara tentang delapan puluh empat ribu baris data dari masing-masing sensor tersebut per hari. Dan data pasti menumpuk dan Robin menyebutkan hal itu. Di muka saya sebutkan beberapa industri di mana kita melihat orang-orang mendapatkan beberapa hal yang cukup menarik dilakukan dengan menggunakan perangkat lunak dan data IoT kami: membangun otomatisasi, energi, utilitas adalah ruang yang sangat penting. Kami melihat banyak pekerjaan yang dilakukan pada optimasi sistem, bahkan layanan pelanggan dan tentu saja keseluruhan operasi dan pemeliharaan, dalam fasilitas energi dan dalam membangun untuk otomatisasi. Dan ini adalah beberapa kasus penggunaan yang kami lihat sangat kuat.
Kami telah melakukan analisis tepi sebelumnya, saya kira, istilah itu diciptakan. Seperti yang saya sebutkan, kami memiliki akar yang dalam di Statistica. Perusahaan ini didirikan hampir 30 tahun yang lalu sehingga pelanggan kami akan kembali beberapa waktu yang mengintegrasikan data IoT dengan analitik mereka dan telah lama. Dan Alliant Energy adalah salah satu kasus penggunaan kami atau pelanggan referensi. Dan Anda dapat membayangkan masalah perusahaan energi dengan pabrik fisik. Melakukan penskalaan di luar dinding bata pabrik fisik itu sulit dan perusahaan energi seperti Alliant mencari cara untuk mengoptimalkan output energi mereka, pada dasarnya meningkatkan proses manufaktur mereka dan mengoptimalkannya ke tingkat tertinggi. Dan mereka menggunakan Statistica untuk mengelola tungku di dalam pabrik mereka. Dan bagi kita semua yang kembali ke masa awal kita di kelas sains kita semua tahu bahwa tungku menghasilkan panas, panas menghasilkan uap, turbin berputar, kita mendapatkan listrik. Masalah bagi perusahaan seperti Alliant sebenarnya adalah mengoptimalkan bagaimana segala sesuatu memanas dan terbakar di dalam tungku siklon besar itu. Dan mengoptimalkan output untuk menghindari biaya tambahan polusi, perpindahan karbon, dan sebagainya. Jadi Anda harus dapat memantau bagian dalam salah satu tungku siklon ini dengan semua perangkat ini, sensor, dan kemudian mengambil semua data sensor itu dan membuat perubahan pada proses energi secara berkelanjutan. Dan itulah yang Statistica lakukan untuk Alliant sejak sekitar 2007, bahkan sebelum istilah IoT sangat populer.
Untuk titik Rebecca sejak awal, data tentu bukan hal baru. Kemampuan untuk memprosesnya dan menggunakannya dengan benar adalah benar-benar di mana hal-hal yang menarik sedang terjadi. Kami telah berbicara sedikit tentang perawatan kesehatan dalam pra-panggilan hari ini dan kami melihat semua jenis aplikasi untuk orang-orang untuk melakukan hal-hal seperti perawatan pasien yang lebih baik, pemeliharaan pencegahan, manajemen rantai pasokan dan efisiensi operasional dalam perawatan kesehatan. Dan itu cukup berkelanjutan dan ada banyak kasus penggunaan yang berbeda. Salah satu yang sangat kami banggakan di sini di Statistica adalah bersama pelanggan kami Shire Biopharmaceuticals. Dan Shire membuat obat khusus untuk penyakit yang benar-benar sulit diobati. Dan ketika mereka membuat banyak obat untuk pelanggan mereka, itu adalah proses yang sangat mahal dan proses yang sangat mahal juga membutuhkan waktu. Ketika Anda berpikir tentang proses pembuatan seperti yang Anda lihat tantangannya menyatukan seluruh data, menjadi cukup fleksibel di berbagai cara memasukkan data ke dalam sistem, memvalidasi informasi dan kemudian dapat menjadi prediksi tentang bagaimana kami membantu pelanggan itu. Dan proses yang menarik sebagian besar informasi dari sistem manufaktur kami dan tentu saja perangkat dan sensor yang menggerakkan sistem manufaktur ini. Dan ini adalah contoh penggunaan yang bagus untuk bagaimana perusahaan menghindari kerugian dan mengoptimalkan proses produksi mereka menggunakan kombinasi data sensor, data IoT dan data reguler dari proses mereka.
Jadi, Anda tahu, contoh yang baik dari mana manufaktur, dan terutama manufaktur berteknologi tinggi, menguntungkan industri perawatan kesehatan di sekitar jenis pekerjaan dan data ini. Saya pikir saya hanya punya beberapa poin lain yang ingin saya sampaikan sebelum saya membungkusnya dan mengembalikannya kepada Dez dan Robin. Tetapi Anda tahu, saya pikir ide untuk dapat mendorong analitik Anda ke mana pun di lingkungan Anda adalah sesuatu yang akan menjadi sangat penting bagi sebagian besar perusahaan. Ditambatkan ke format tradisional data ETL dari sumber kembali ke lokasi pusat akan selalu mendapat tempat dalam strategi Anda, tetapi seharusnya tidak menjadi satu-satunya strategi Anda. Anda harus mengambil pendekatan yang jauh lebih fleksibel untuk hal-hal hari ini. Untuk menerapkan keamanan yang saya sebutkan, hindari pengenaan pajak dari jaringan Anda, untuk dapat mengelola dan memfilter data yang berasal dari tepi, dan menentukan data apa yang layak disimpan untuk jangka panjang, data apa yang layak dipindahkan ke jaringan kami, atau data apa yang perlu dianalisis pada saat itu dibuat, agar kami dapat membuat keputusan sebaik mungkin. Pendekatan analitik di mana-mana dan di mana saja ini adalah sesuatu yang kami sukai di Statistica dan kami sangat mahir. Dan itu kembali ke salah satu slide yang saya sebutkan sebelumnya, kemampuan untuk mengekspor model Anda dalam berbagai bahasa, sehingga mereka dapat cocok dan sejajar dengan platform di mana data sedang dibuat. Dan tentu saja memiliki perangkat distribusi untuk model-model yang juga merupakan sesuatu yang kami bawa ke meja dan kami sangat bersemangat. Saya pikir percakapan hari ini adalah, jika kita benar-benar serius tentang data ini yang sudah lama ada di sistem kami dan kami ingin menemukan keunggulan kompetitif dan sudut inovatif untuk menggunakannya, Anda harus menerapkan beberapa teknologi yang memungkinkan Anda untuk menjauh dari beberapa model pembatasan yang telah kami gunakan di masa lalu.
Sekali lagi, maksud saya adalah bahwa jika Anda akan melakukan IoT, saya pikir Anda harus dapat melakukannya pada intinya, dan memasukkan data dan mencocokkannya dengan data lain dan melakukan analisis Anda. Tetapi juga, sama pentingnya atau bahkan lebih penting, Anda harus memiliki fleksibilitas ini untuk menempatkan analitik dengan data dan memindahkan analitik dari sisi pusat arsitektur Anda ke tepi untuk keuntungan yang telah saya sebutkan sebelum. Itu sedikit tentang siapa kita dan apa yang kita lakukan di pasar. Dan kami sangat senang dengan IoT, kami pikir ini sudah pasti, dan ada peluang besar bagi semua orang di sini untuk memengaruhi analisis dan proses kritis mereka dengan jenis data ini.
Rebecca Jozwiak: Shawn, terima kasih banyak, itu adalah presentasi yang sangat fantastis. Dan saya tahu Dez mungkin ingin menanyakan beberapa pertanyaan kepada Anda jadi Dez, saya akan membiarkan Anda pergi dulu.
Dez Blanchfield: Saya punya sejuta pertanyaan, tetapi saya akan menahan diri karena saya tahu Robin juga akan menjawab. Salah satu hal yang saya lihat jauh dan luas adalah pertanyaan yang muncul dan saya benar-benar ingin mendapatkan beberapa wawasan tentang pengalaman Anda dalam hal ini mengingat Anda benar di jantung segala sesuatu. Organisasi sedang bergumul dengan tantangan itu, dan terlihat beberapa dari mereka baru saja membaca yang seperti "Revolusi Industri Keempat" Klaus Schwab dan kemudian mengalami serangan panik. Dan mereka yang tidak akrab dengan buku ini, pada dasarnya adalah wawasan oleh seorang pria, oleh Klaus Schwab, yang saya pikir adalah seorang profesor, yang adalah pendiri dan Ketua Eksekutif Forum Ekonomi Dunia dari ingatan, dan buku ini pada dasarnya tentang Seluruh internet ini ledakan di mana-mana dan beberapa dampak pada dunia secara umum. Organisasi yang saya ajak bicara tidak yakin apakah mereka harus pergi dan memperbaiki lingkungan saat ini atau menginvestasikan segalanya untuk membangun semua lingkungan, infrastruktur, dan platform baru. Di Dell Statistica juga, apakah Anda melihat orang-orang memperbaiki lingkungan saat ini dan menyebarkan platform Anda ke infrastruktur yang ada, atau apakah Anda melihat mereka mengalihkan fokus mereka untuk membangun semua infrastruktur baru dan bersiap menghadapi banjir ini?
Shawn Rogers: Anda tahu, kami memiliki kesempatan untuk melayani kedua jenis pelanggan dan berada di pasar selama kami memilikinya, Anda mendapatkan peluang itu untuk berkembang luas. Kami memiliki pelanggan yang telah menciptakan pabrik fab baru dalam beberapa tahun terakhir dan melengkapi mereka dengan data sensor, IoT, analitik dari ujung, ujung ke ujung sepanjang proses itu. Tetapi saya harus mengatakan bahwa sebagian besar pelanggan kami adalah orang-orang yang telah melakukan pekerjaan semacam ini untuk sementara waktu tetapi terpaksa mengabaikan data itu. Anda tahu, Rebecca membuat titik di depan - ini bukan data baru, jenis informasi ini telah tersedia dalam banyak format yang berbeda untuk waktu yang sangat lama, tetapi di mana masalahnya adalah menghubungkannya, memindahkannya, membawanya ke suatu tempat di mana Anda bisa menyelesaikan sesuatu dengan cerdas.
Jadi saya akan mengatakan bahwa sebagian besar pelanggan kami melihat apa yang mereka miliki hari ini, dan Dez, Anda membuat poin ini sebelumnya, bahwa ini adalah bagian dari revolusi big data dan saya pikir apa yang sebenarnya adalah, apakah ini tentang semua revolusi data, kan? Kita tidak perlu mengabaikan data sistem tertentu atau membuat data atau membangun data otomatisasi lagi, kita sekarang memiliki mainan dan alat yang tepat untuk mendapatkannya dan kemudian melakukan hal-hal cerdas dengannya. Dan saya pikir ada banyak driver di ruang ini yang membuat itu terjadi dan beberapa di antaranya adalah teknologi. Anda tahu, solusi infrastruktur data besar seperti Hadoop dan lainnya telah membuatnya sedikit lebih murah dan sedikit lebih mudah bagi sebagian dari kita untuk berpikir tentang membuat danau data dari jenis informasi itu. Dan kami sekarang mencari di sekitar perusahaan untuk pergi, "Hei, kami punya analitik dalam proses manufaktur kami, tetapi apakah mereka akan ditingkatkan jika kita bisa menambahkan beberapa wawasan dari proses ini?" Dan itu, saya pikir, apa yang sebagian besar dari pelanggan kami lakukan. Ini tidak begitu banyak menciptakan dari bawah ke atas, tetapi menambah dan mengoptimalkan analitik yang sudah mereka miliki dengan data yang baru bagi mereka.
Dez Blanchfield: Ya, ada beberapa hal menarik yang terjadi di beberapa industri terbesar yang pernah kita lihat, dan Anda menyebutkan, kekuatan dan utilitas. Penerbangan baru saja mengalami booming ini di mana salah satu perangkat favorit saya sepanjang masa yang saya bicarakan secara teratur, Boeing 787 Dreamliner, dan tentu saja yang setara dengan Airbus, A330 telah menempuh rute yang sama. Ada seperti enam ribu sensor di 787 ketika pertama kali dirilis, dan saya pikir mereka sekarang berbicara tentang lima belas ribu sensor dalam versi baru itu. Dan hal yang aneh tentang berbicara dengan beberapa orang yang ada di dunia itu adalah gagasan untuk meletakkan sensor di sayap dan sebagainya, dan hal yang menakjubkan tentang 787 dalam platform desain adalah, Anda tahu, mereka menciptakan kembali segala sesuatu dalam pesawat terbang. Seperti sayap, misalnya, ketika pesawat lepas landas, sayap melentur hingga dua belas setengah meter. Namun secara ekstrem sayap bisa melentur di ujung hingga 25 meter. Benda ini terlihat seperti burung mengepak. Tapi apa yang mereka tidak punya waktu untuk diperbaiki adalah rekayasa analisis dari semua data ini, sehingga mereka memiliki sensor yang membuat LED berkedip hijau dan merah jika sesuatu yang buruk terjadi, tetapi mereka tidak benar-benar berakhir dengan wawasan mendalam di waktu sebenarnya. Dan mereka juga tidak memecahkan masalah bagaimana memindahkan volume data di sekitar karena di wilayah udara domestik di AS setiap hari ada 87.400 penerbangan. Ketika setiap pesawat terbang mengejar 787 Dreamliner dengan pembeliannya, itu berarti 43 petabyte per hari, karena masing-masing pesawat ini menghasilkan sekitar setengah terabyte data. Dan ketika Anda mengalikan 87.400 penerbangan sehari di dalam negeri di AS dengan koma lima atau setengah terabyte, Anda berakhir dengan 43, 5 petabyte data. Kami secara fisik tidak bisa bergerak di sekitar itu. Jadi dengan desain kami harus mendorong analitik ke perangkat.
Tetapi salah satu hal yang menarik ketika saya melihat seluruh arsitektur ini - dan saya ingin melihat apa yang Anda pikirkan tentang ini - adalah kami telah bergerak menuju manajemen data master, semacam, prinsip pertama manajemen data, menarik semuanya menjadi lokasi sentral. Kami memiliki data danau, dan kemudian kami membuat kumpulan data kecil jika Anda suka, mengekstrak dari yang kami analisis, tetapi dengan mendistribusikan ke tepi, salah satu hal yang terus muncul, terutama dari orang-orang basis data dan manajer data atau orang-orang dalam bisnis mengelola informasi, apakah yang terjadi ketika saya memiliki banyak danau data miniatur yang didistribusikan? Hal-hal seperti apa yang telah diterapkan pada pemikiran ini berkenaan dengan analitik tepi dalam solusi Anda, dalam hal itu, secara tradisional, semuanya akan terpusat dengan danau data, sekarang kita berakhir dengan genangan kecil data di mana-mana, dan meskipun kita dapat melakukan analisis pada mereka secara lokal untuk mendapatkan wawasan lokal, apa saja tantangan yang Anda hadapi dan bagaimana Anda menyelesaikannya, memiliki set data terdistribusi, dan terutama ketika Anda mendapatkan mikrokosmos dari danau data dan area terdistribusi?
Shawn Rogers: Ya saya pikir itu salah satu tantangan, bukan? Ketika kita pergi dari, Anda tahu, mengirimkan semua data kembali ke lokasi pusat atau contoh analitik inti yang saya berikan dan kemudian kita melakukan versi terdistribusi adalah bahwa Anda benar-benar berakhir dengan semua silo kecil ini, kan? Seperti yang Anda gambarkan, bukan? Mereka melakukan sedikit pekerjaan, beberapa analitik berjalan, tetapi bagaimana Anda menyatukannya kembali? Dan saya pikir kuncinya adalah mengatur semua itu dan saya pikir kalian akan setuju dengan saya, tapi saya senang jika tidak, bahwa saya pikir kita telah menyaksikan evolusi ini selama beberapa waktu. beberapa waktu.
Kembali ke masa teman-teman kita Bpk. Inmon dan Bpk. Kimball yang membantu semua orang dengan arsitektur investasi gudang data awal mereka, intinya adalah bahwa kita telah meninggalkan model terpusat itu untuk waktu yang lama. Kami telah mengadopsi ide baru ini yang memungkinkan data untuk menunjukkan gravitasinya di tempat yang terbaik berada di dalam ekosistem Anda dan menyelaraskan data dengan platform terbaik untuk hasil terbaik. Dan saya pikir kita sudah mulai menghabiskan semacam itu, pendekatan yang lebih terencana untuk ekosistem kita sebagai cara menyeluruh dalam melakukan berbagai hal, seperti di mana kita mencoba menyelaraskan semua bagian itu sekaligus. Apa jenis analitik atau pekerjaan yang akan saya lakukan dengan data, apa jenis data itu, yang akan membantu menentukan di mana ia harus tinggal. Di mana itu diproduksi dan apa jenis gravitasi yang dimiliki data?
Anda tahu, kita melihat banyak contoh data besar ini di mana orang berbicara tentang memiliki danau data 10 dan 15 petabyte. Nah, jika Anda memiliki data lake yang sebesar itu, sangat tidak praktis bagi Anda untuk memindahkannya sehingga Anda harus dapat membawa analisis ke dalamnya. Tetapi ketika Anda melakukan itu, pada inti pertanyaan Anda, saya pikir itu menimbulkan banyak tantangan baru bagi semua orang untuk mengatur lingkungan dan untuk menerapkan tata kelola dan keamanan, dan memahami apa yang perlu dilakukan dengan data itu untuk menyusunnya dan untuk dapatkan nilai tertinggi darinya. Dan jujur dengan Anda - saya ingin mendengar pendapat Anda di sini - saya pikir kita masih awal di sana dan saya pikir ada banyak pekerjaan bagus yang belum dilakukan. Saya pikir program seperti Statistika berfokus pada memberi lebih banyak orang akses ke data. Kami jelas berfokus pada persona baru ini seperti ilmuwan data warga negara yang ingin mengarahkan analitik prediktif ke tempat-tempat di dalam organisasi yang mungkin belum pernah ada sebelumnya. Dan saya pikir itu adalah beberapa hari awal di sekitar ini, tapi saya pikir busur jatuh tempo harus menunjukkan tingkat tinggi atau orkestrasi dan penyelarasan antara platform ini, dan pemahaman tentang apa yang ada di dalamnya dan mengapa. Dan itu adalah masalah kuno bagi kita semua orang data.
Dez Blanchfield: Memang benar dan saya sepenuhnya setuju dengan Anda tentang hal itu dan saya pikir hal hebat yang kami dengar di sini hari ini adalah setidaknya ujung depan dari masalah sebenarnya menangkap data pada, saya kira, tingkat gateway di tepi jaringan dan kemampuan untuk melakukan analisis pada saat itu pada dasarnya dipecahkan sekarang. Dan sekarang membebaskan kita untuk benar-benar mulai berpikir tentang tantangan berikutnya, yang didistribusikan data danau. Terima kasih banyak untuk itu, itu adalah presentasi yang fantastis. Saya sangat menghargai kesempatan untuk mengobrol dengan Anda tentang hal itu.
Saya akan meneruskan ke Robin sekarang karena saya tahu dia punya, dan kemudian Rebecca juga punya daftar panjang pertanyaan besar dari para penonton setelah Robin. Robin?
Robin Bloor: Oke. Shawn, saya ingin Anda mengatakan sedikit lebih banyak dan saya tidak mencoba memberi Anda kesempatan untuk mengiklankannya, tetapi sebenarnya sangat penting. Saya tertarik mengetahui kapan Statistica benar-benar menghasilkan kemampuan ekspor model. Tapi saya juga, saya ingin Anda mengatakan sesuatu tentang Boomi karena semua yang Anda katakan tentang Boomi sejauh ini adalah ETL, dan memang ETL. Tetapi sebenarnya ETL cukup mumpuni dan untuk jenis timing yang sedang kita bicarakan, dan beberapa situasi yang kita diskusikan di sini, itu hal yang sangat penting. Bisakah Anda berbicara dua hal itu untuk saya?
Shawn Rogers: Tentu, ya, saya benar-benar bisa. Anda tahu, gerakan kami ke arah ini tentu saja berulang dan itu semacam proses langkah demi langkah. Kami sedang bersiap-siap minggu ini untuk meluncurkan Statistica Versi 13.2. Dan ia memiliki pembaruan terbaru dari semua kemampuan yang kita bicarakan hari ini. Tetapi kembali ke Versi 13, setahun yang lalu Oktober, kami mengumumkan kemampuan kami untuk mengekspor model dari platform kami, dan kami menyebutnya NDAA pada saat itu. Singkatan singkatan dari Native Distributed Analytics Architecture. Apa yang kami lakukan adalah kami meluangkan banyak waktu, energi, dan fokus untuk membuka platform kami dengan kesempatan untuk menggunakannya sebagai pusat komando pusat untuk analisis lanjutan Anda, tetapi juga untuk digunakan dari sana. Dan tempat pertama, Robin, yang kami gunakan adalah kami melakukan tambahan yang sangat, sangat bagus untuk platform seputar pembelajaran mesin. Dan jadi kami memiliki kemampuan untuk menyebar dari Statistica ke Microsoft Azure Cloud untuk menggunakan kekuatan Azure untuk menggerakkan pembelajaran mesin, seperti yang Anda tahu, sangat intensif dan ini cara yang bagus untuk memanfaatkan teknologi cloud. Dan itulah yang pertama.
Sekarang di sini kami mengekspor model kami ke Azure dan menggunakan Azure untuk menjalankannya dan kemudian mengirim data, atau hasilnya, kembali ke platform Statistica. Dan kemudian kami pindah ke bahasa lain yang kami ingin dapat ekspor, dan tentu saja salah satu dari mereka adalah Jawa membuka pintu bagi kami untuk sekarang mulai mengekspor model kami keluar ke lokasi lain seperti Hadoop, jadi itu memberikan kami bermain di sana juga.
Dan terakhir kami fokus untuk dapat menampilkan model kami dengan rilis itu ke dalam basis data. Jadi itu adalah iterasi pertama dan jujur dengan Anda, permainan akhirnya adalah IOT tapi kami belum cukup di sana dengan Versi 13 Oktober lalu. Sejak itu kami tiba di sana dan itu berkaitan dengan kemampuan untuk melakukan semua hal yang baru saja saya sebutkan, tetapi kemudian memiliki semacam alat transportasi. Dan kembali ke pertanyaan Dez tentang, Anda tahu, apa tantangannya dan bagaimana kita melakukan ini ketika kita memiliki semua analisis ini? Yah kami menggunakan Boomi sebagai semacam hub distribusi dan karena itu di cloud dan karena sangat kuat, seperti yang saya sebutkan sebelumnya, ini adalah platform integrasi data, tetapi juga platform integrasi aplikasi, dan ia menggunakan JVM untuk memungkinkan kami untuk memarkir dan melakukan pekerjaan di mana saja Anda dapat mendaratkan mesin virtual Java. Itulah yang benar-benar mengayunkan pintu terbuka untuk semua gateway ini dan platform komputasi tepi dan server tepi, karena semuanya memiliki komputasi dan platform yang tersedia untuk menjalankan JVM. Dan karena kita dapat menjalankan JVM di mana saja, Boomi telah berubah menjadi distribusi yang luar biasa dan, menggunakan kata saya sebelumnya, perangkat orkestrasi.
Dan ini menjadi sangat penting karena kita semua, Anda tahu, saya pikir skenario pesawat satu menit yang lalu adalah yang hebat, dan saya menyebutkan, Anda tahu, produsen seperti Shire yang memiliki sepuluh ribu sensor di salah satu pabrik mereka, Anda harus mulai membahas semacam pendekatan sentral untuk analitik lanjutan di beberapa titik. Menjadi ad hoc tentang hal itu tidak lagi berfungsi. Dulu ketika volume model dan algoritma yang kami jalankan minimal, tapi sekarang sudah maksimal. Ada ribuan dari mereka dalam suatu organisasi. Jadi kami punya, bagian dari platform kami adalah berbasis server dan ketika Anda memiliki perangkat lunak perusahaan kami, Anda juga memiliki kemampuan untuk mengubah dan mencetak dan mengelola model Anda di seluruh lingkungan. Dan itu juga bagian dari orkestrasi itu. Kami perlu memiliki layer, Robin, di tempat yang tidak hanya memungkinkan Anda untuk mendapatkan model di sana di tempat pertama, tetapi juga memberi Anda saluran untuk mengubah model dan menggantinya secara berkelanjutan sesering yang Anda butuhkan, karena ini bukan sesuatu yang dapat Anda lakukan secara manual. Anda tidak dapat berjalan di sekitar kilang dengan thumb drive mencoba mengunggah model ke gateway. Anda harus memiliki sistem transportasi dan manajemen di antaranya, sehingga kombinasi Statistica dan Boomi memberikannya kepada pelanggan kami.
Robin Bloor: Ya. Yah saya akan sangat singkat tetapi, Anda tahu, pernyataan yang dibuat sebelumnya tentang danau data dan gagasan mengumpulkan petabyte di tempat tertentu, dan fakta bahwa ia memiliki gravitasi. Anda tahu, ketika Anda mulai berbicara tentang orkestrasi, itu baru mulai membuat saya berpikir tentang fakta yang sangat sederhana bahwa, Anda tahu, meletakkan data lake yang sangat besar di satu tempat mungkin berarti Anda benar-benar harus mendukungnya dan itu mungkin berarti bahwa Anda harus memindahkan banyak data. Anda tahu, arsitektur data nyata jauh lebih, menurut pendapat saya, lebih ke arah yang Anda bicarakan. Yang mendistribusikannya ke tempat-tempat yang masuk akal, mungkin adalah hal yang akan saya katakan. Dan sepertinya Anda memiliki kemampuan yang sangat baik untuk melakukan ini. Maksud saya, saya diberi pengarahan singkat tentang Boomi sehingga agak, dalam satu atau lain cara, hampir tidak adil sehingga saya bisa melihatnya dan mungkin penonton tidak bisa. Tapi menurut saya, Boomi sangat penting dalam hal apa yang Anda lakukan karena memiliki kemampuan aplikasi. Dan juga karena kebenaran masalahnya adalah Anda tidak melakukan perhitungan analitik ini tanpa ingin melakukan sesuatu di suatu tempat karena suatu alasan. Dan Boomi berperan dalam hal itu, bukan?
Shawn Rogers: Ya, tentu saja. Dan seperti yang Anda ketahui dari percakapan sebelumnya, Statistica memiliki mesin aturan bisnis lengkap di dalamnya. Dan saya pikir itu sangat penting ketika kita sampai pada mengapa kita melakukan ini. Anda tahu, saya bercanda di depan bahwa benar-benar tidak ada alasan untuk melakukan IoT sama sekali kecuali Anda akan menganalisis, memanfaatkan data untuk membuat keputusan yang lebih baik atau mengambil tindakan. Jadi apa yang kami fokuskan bukan hanya bisa menempatkan model di luar sana tapi juga bisa mengikuti, seperangkat aturan. Dan karena Boomi begitu kuat dalam kemampuannya untuk memindahkan sesuatu dari satu tempat ke tempat lain, dalam atom Boomi kita juga dapat menanamkan kemampuan untuk memicu, untuk mengingatkan dan mengambil tindakan.
Dan di situlah kita mulai mendapatkan semacam pandangan canggih dari data IoT di mana kita berkata, "Oke, data ini layak untuk didengarkan." Tapi sungguh, Anda tahu, mengetahui bahwa "lampu menyala, lampu menyala, lampu menyala, lampu menyala ”tidak semenarik ketika ketika lampu padam atau ketika detektor asap padam atau ketika apa pun yang terjadi pada proses produksi kami tidak sesuai spesifikasi. Ketika itu terjadi, kami ingin dapat mengambil tindakan segera. Dan data menjadi hampir sekunder di sini pada saat ini. Karena tidak begitu penting bagi kita untuk menyelamatkan semua itu, "tidak apa-apa, tidak apa-apa, tidak apa-apa" sinyal, yang penting adalah bahwa kita memperhatikan "Hei, itu buruk" dan kami mengambil tindakan segera. Apakah itu mengirimkan email kepada seseorang atau kita bisa melibatkan keahlian domain, atau apakah kita memulai serangkaian proses lain untuk mengambil tindakan segera, apakah itu korektif atau sebagai respons terhadap informasi. Dan saya pikir itu sebabnya Anda harus memiliki pandangan yang mengaturnya. Anda tidak bisa hanya fokus menangani algoritma Anda di semua tempat. Anda harus dapat mengoordinasikan dan mengatur mereka. Anda harus dapat melihat kinerja mereka. Dan sungguh, yang paling penting, maksud saya, mengapa Anda melakukan ini jika Anda tidak dapat menambahkan kesempatan untuk mengambil tindakan segera terhadap data?
Robin Bloor: Oke, Rebecca, saya yakin Anda punya pertanyaan dari hadirin?
Rebecca Jozwiak: Ya . Saya punya banyak pertanyaan tentang audiens. Shawn, saya tahu Anda tidak ingin bertahan terlalu lama melewati jam paling atas. Bagaimana menurut anda?
Shawn Rogers: Saya senang. Lanjutkan. Saya bisa menjawab beberapa.
Rebecca Jozwiak: Mari kita lihat. Saya tahu salah satu hal yang Anda sebutkan adalah bahwa IoT berada di masa-masa awal dan memang memiliki tingkat kedewasaan yang harus terjadi dan itu jenis berbicara untuk pertanyaan ini satu peserta bertanya. Jika kerangka kerja IPv6 akan cukup kuat untuk mengakomodasi pertumbuhan IoT dalam lima atau sepuluh tahun ke depan?
Shawn Rogers: Oh, saya akan membiarkan Dez mengulangi jawaban saya karena saya pikir dia lebih dekat dengan tipe informasi seperti ini. Tapi saya selalu berpikir bahwa kita berada di jalur yang sangat cepat untuk membengkokkan dan mematahkan sebagian besar kerangka kerja yang kita miliki. Dan sementara saya pikir penambahan jenis spek baru atau arah yang kita tuju dengan kerangka kerja IPv6 itu penting, dan itu membuka pintu bagi kita untuk memiliki lebih banyak perangkat, dan untuk dapat memberikan semua yang kita ingin memberi alamat Saya pikir semua yang saya baca dan lihat dengan pelanggan saya, dan jumlah alamat yang diperlukan, saya pikir suatu saat akan menyebabkan perubahan lain dalam lanskap itu. Tapi saya bukan benar-benar ahli jaringan jadi saya tidak bisa mengatakan seratus persen bahwa kita akan mematahkannya di beberapa titik. Tetapi pengalaman saya mengatakan bahwa kami akan mengganggu model itu di beberapa titik.
Rebecca Jozwiak: Saya tidak akan terkejut. Saya pikir kerangka kerja adalah jenis melanggar di bawah beban semua jenis hal. Dan itu masuk akal, bukan? Maksud saya, Anda tidak dapat mengirim email dengan mesin tik. Peserta lain bertanya, “Bisakah Anda menggunakan kerangka kerja Hadoop?” Tapi saya rasa saya mungkin mengubahnya untuk mengatakan, bagaimana Anda menggunakan kerangka kerja Hadoop untuk analitik terdistribusi?
Shawn Rogers: Ya, Robin membantu saya mengajukan pertanyaan sejarah kepada saya dan sejak Versi 13 sekitar setahun yang lalu untuk Statistica, kami memiliki kemampuan untuk mengusir model dari sistem kami ke Hadoop. Dan kami bekerja sangat erat dengan semua rasa besar Hadoop. Kami memiliki kisah sukses yang luar biasa seputar kemampuan untuk bekerja dengan Cloudera sebagai salah satu distribusi Hadoop utama yang kami tangani. Tetapi karena kami dapat menghasilkan di Jawa, ini memberi kami kemampuan untuk terbuka dan menempatkan analitik kami di mana saja. Menempatkan mereka ke dalam cluster Hadoop adalah sesuatu yang kami lakukan secara normal dan teratur dan setiap hari bagi banyak pelanggan kami. Jawaban singkatnya adalah ya, tentu saja.
Rebecca Jozwiak: Luar biasa. Dan saya hanya akan melemparkan satu lagi pada Anda dan membiarkan Anda melanjutkan liburan Anda. Peserta lain bertanya, dengan analitik IoT plus pembelajaran mesin, apakah menurut Anda semua data perlu disimpan untuk tujuan historis dan bagaimana hal itu berdampak pada arsitektur solusi?
Shawn Rogers: Ya, saya tidak berpikir bahwa semua data harus disimpan. Tetapi saya pikir itu sangat menarik untuk memiliki kemampuan untuk menghibur, mendengarkan sumber data apa pun yang kita inginkan dalam organisasi kita, dari mana pun asalnya. Dan saya benar-benar berpikir bahwa perubahan yang telah kita lihat di pasar selama beberapa tahun terakhir telah memungkinkan kita untuk mengambil pendekatan semua-data terhadap berbagai hal, dan tampaknya benar-benar semacam pelunasan. Tapi itu akan berbeda untuk setiap perusahaan dan setiap kasus penggunaan. Anda tahu, ketika kita melihat data kesehatan, sekarang ada banyak masalah regulasi, banyak masalah kepatuhan yang harus diperhatikan, dan itu membuat kita menyimpan data yang perusahaan lain mungkin tidak mengerti mengapa itu perlu diselamatkan, kan ? Dalam proses manufaktur, bagi banyak pelanggan manufaktur kami, ada sisi positif nyata untuk dapat memeriksa proses Anda secara historis dan dapat melihat kembali sejumlah besar data ini untuk belajar darinya dan membangun model yang lebih baik dari itu.
Saya pikir banyak data yang perlu disimpan dan saya pikir kami punya solusi yang membuatnya lebih ekonomis dan dapat diskalakan hari ini. Tetapi pada saat yang sama saya pikir setiap perusahaan akan menemukan nilai dalam data yang tidak harus mereka pertahankan dalam level atom, tetapi mereka ingin menganalisa secara real-time dan membuat keputusan untuk mendorong inovasi dalam perusahaan mereka.
Rebecca Jozwiak: Oke bagus. Tidak, hadirin, saya tidak mendapatkan pertanyaan semua orang hari ini, tetapi saya akan meneruskannya ke Shawn agar dia dapat menghubungi Anda secara langsung dan menjawab pertanyaan-pertanyaan itu. Tapi terima kasih semuanya sudah hadir. Terima kasih banyak untuk Shawn Rogers dari Dell Statistica dan dari semua analis kami, Dez Blanchfield dan Dr. Robin Bloor. Anda dapat menemukan arsip di sini di insideanalysis.com, SlideShare, kami sudah mulai meletakkan kembali barang-barang kami di sana, dan kami sedang memperbarui YouTube kami jadi cari di sana juga. Terima kasih banyak kawan. Dan dengan itu saya akan mengucapkan selamat tinggal kepada Anda dan kami akan bertemu lagi lain kali.