Rumah Audio Ke masa depan: on-ramp untuk komputasi dalam memori

Ke masa depan: on-ramp untuk komputasi dalam memori

Anonim

Oleh Staf Techopedia, 25 Januari 2017

Takeaway: Host Eric Kavanagh membahas komputasi dalam memori dan SAP HANA dengan tamu Dr. Robin Bloor, Dez Blanchfield dan Bill Ellis dari IDERA.

Anda saat ini belum masuk. Silakan masuk atau daftar untuk melihat video.

Eric Kavanagh: Oke, tuan dan nyonya. Halo dan selamat datang kembali sekali lagi. Sekarang jam empat Waktu Timur pada hari Rabu dan beberapa tahun terakhir yang berarti sudah waktunya, sekali lagi, untuk Hot Technologies. Ya, memang, nama saya Eric Kavanagh, saya akan menjadi tuan rumah Anda untuk percakapan hari ini.

Dan teman-teman, kita akan membicarakan beberapa hal keren hari ini. Kita akan terjun ke dunia in-memory, judul yang tepat adalah "Into the Future: Sebuah On-Ramp untuk In-Memory Computing." Ini semua mengamuk akhir-akhir ini, dan dengan alasan yang bagus, sebagian besar karena di- memori jauh lebih cepat daripada mengandalkan disk berputar. Namun, tantangannya adalah Anda harus menulis ulang banyak perangkat lunak. Karena perangkat lunak saat ini, sebagian besar, telah ditulis dengan disk dalam pikiran dan itu benar-benar mengubah arsitektur aplikasi. Jika Anda mendesain aplikasi untuk menunggu disk berputar, Anda hanya melakukan hal-hal yang berbeda daripada jika Anda memiliki semua kekuatan teknologi di dalam memori.

Ada titik tentang dirimu yang sebenarnya, pukul aku di Twitter, @eric_kavanagh. Saya selalu mencoba mengikuti kembali dan juga me-retweet kapan saja seseorang menyebut saya.

Seperti yang saya katakan, kita berbicara tentang memori hari ini, dan khususnya tentang SAP HANA. Anda benar-benar menghabiskan tahun terakhir untuk mengenal komunitas SAP dengan sangat baik, dan ini merupakan lingkungan yang menarik, saya harus katakan. Angkat topi untuk orang-orang yang menjalankan operasi itu dan berada di garis depan, karena SAP adalah operasi yang sangat baik. Apa yang mereka sangat pandai lakukan adalah berbisnis. Mereka juga hebat dalam teknologi, tentu saja, dan mereka benar-benar menanamkan investasi besar ke HANA. Bahkan, saya dapat mengingat - mungkin sekitar enam atau tujuh tahun yang lalu - bahwa kami melakukan beberapa pekerjaan untuk Angkatan Udara AS, dan kami mendapatkan seseorang dari SAP untuk datang dan memberi kami pandangan awal pada dunia HANA dan apa yang direncanakan. Dan untuk sedikitnya, orang-orang di SAP Labs telah meluangkan banyak waktu dan upaya untuk memahami bagaimana membangun arsitektur ini yang benar-benar berbeda, sekali lagi, dari lingkungan tradisional, karena Anda memiliki segalanya dalam memori. Jadi, mereka berbicara tentang melakukan kedua transaksional dan analitis pada data yang sama dalam memori, sebagai lawan dari cara tradisional, yang menariknya keluar, memasukkannya ke dalam kubus, misalnya, menganalisisnya di sana, dibandingkan transaksional, yang terjadi dengan cara yang sangat berbeda.

Ini adalah ruang yang menarik dan kami akan mencari tahu dari vendor lain sebenarnya, IDERA, sedikit tentang bagaimana semua hal itu akan bekerja, dan apa sebenarnya on-ramp, tentang apa yang sedang terjadi, terus terang. Jadi, kita akan mendengar dari Dr. Robin Bloor, kepala analis kita sendiri di sini di The Bloor Group; Dez Blanchfield, ilmuwan data kami dan kemudian teman baik Bill Ellis dari IDERA. Jadi, dengan itu, saya akan menyerahkan kunci kepada Dr. Robin Bloor, yang akan mengambilnya.

Robin Bloor: Ya, seperti yang Eric katakan, waktu pertama kali kami diberi pengarahan oleh SAP HANA adalah beberapa tahun yang lalu, sekarang. Tapi itu sangat menarik, waktu itu sangat menarik. Kami bertemu dengan satu atau dua perusahaan yang, dalam satu atau lain cara, menawarkan teknologi dalam memori. Cukup jelas bahwa di-memori akan datang. Dan itu benar-benar tidak sampai SAP berdiri dan tiba-tiba meluncurkan HANA. Maksudku, itu mengejutkan ketika aku melihat SAP melakukan itu. Itu, seperti, itu mengejutkan karena saya berharap itu datang dari tempat lain. Saya berharap itu akan, Anda tahu, Microsoft atau Oracle atau IBM atau seseorang seperti itu. Gagasan bahwa SAP melakukannya sungguh sangat mengejutkan bagi saya. Saya kira itu seharusnya bukan karena SAP adalah salah satu vendor strategis dan cukup banyak, Anda tahu, semua hal besar yang terjadi di industri berasal dari salah satunya.

Ngomong-ngomong, intinya tentang memori, maksud saya, kami sadari, kami biasa membicarakannya, bahwa begitu Anda benar-benar masuk memori - ini bukan tentang memasukkan data ke dalam memori, ini tentang melakukan komitmen pada Gagasan bahwa lapisan memori adalah catatan sistem - segera setelah Anda memigrasi catatan sistem ke memori, disk mulai menjadi media handoff dari satu jenis dan itu menjadi hal yang berbeda. Dan saya pikir itu sangat menyenangkan ketika itu mulai terjadi. Jadi, sungguh, ini sudah berakhir untuk memintal disk. Disk pemintalan akan segera ada hanya di museum. Saya tidak yakin seberapa cepat itu, tapi pada dasarnya, solid-state disk sekarang pada kurva hukum Moore, itu sudah sepuluh kali lebih cepat daripada berputar karat, seperti yang mereka sebut sekarang, dan tidak lama lagi itu akan lebih cepat lagi dan maka itu berarti bahwa kasus penggunaan untuk disk semakin sedikit.

Dan fakta yang aneh, DBMS tradisional, pada kenyataannya, banyak perangkat lunak tradisional dibangun untuk memintal disk, itu diasumsikan pemintalan disk. Itu memiliki segala macam kemampuan tingkat fisik yang diprogram dengan susah payah, untuk mengeksploitasi disk pemintalan, membuat pengambilan data secepat mungkin. Dan semua itu terhanyut. Hilang begitu saja, Anda tahu? Dan kemudian, jelas ada yang sangat - saya tidak tahu, menguntungkan, saya kira, itu akan menjadi pada akhirnya - pembukaan untuk database di memori yang mencoba untuk menempati posisi bahwa database besar, Oracle dan Microsoft, SQL Server dan DB2 IBM, itu menempati ruang di dalam memori dan sangat menarik untuk menonton yang datang maju dan melakukan itu.

Mari kita bicara tentang kaskade memori; itu hanya layak disebut. Itu juga, alasan untuk menyebutkan ini, alasan saya memasukkan ini, sungguh, hanya untuk membuat semua orang tahu, ketika saya berbicara tentang memori di sini, semua lapisan yang saya bicarakan ini sebenarnya adalah memori. Tapi Anda tiba-tiba menyadari ketika Anda melihat ini, ini adalah toko hierarkis, bukan hanya memori. Dan oleh karena itu, hampir semua yang kami pelajari sejak dulu, tentang toko hierarkis, juga berlaku. Dan itu juga berarti bahwa setiap basis data dalam memori harus menavigasi jalannya melalui ini, beberapa hanya berjalan melalui RAM itu sendiri, Anda tahu. Dan itu baru saja semakin besar dan lebih besar dan lebih besar dan sekarang diukur dalam megabita. Tapi Anda punya L1 cache yang seratus kali lebih cepat dari memori, L2 cache 30 kali lebih cepat dari memori dan L3 cache sekitar 10 kali lebih cepat dari memori. Jadi, Anda tahu, ada banyak teknologi - yah, cukup banyak teknologi - telah mengadopsi strategi menggunakan cache seperti, jenis, ruang penyimpanan dalam perjalanan untuk melakukan sesuatu, terutama teknologi basis data. Jadi, Anda tahu, itu satu pengaruh.

Lalu kita punya kemunculan 3D XPoint dan PCM IBM. Dan itu hampir kecepatan RAM, pada dasarnya apa yang dibanggakan kedua vendor ini. Kasus penggunaan mungkin berbeda. Eksperimen awal dengan ini belum selesai. Kami tidak tahu bagaimana ini akan berdampak pada penggunaan RAM dan teknologi database di memori dalam hal ini. Anda kemudian mendapat RAM versus SSD. Saat ini RAM sekitar 300 kali lebih cepat tetapi, tentu saja, banyak yang berkurang. Dan SSD versus disk yang sekitar 10 kali lebih cepat, jika saya memahaminya. Jadi, itulah situasi yang Anda alami. Ini toko hierarkis. Melihatnya dengan cara lain, dalam memori, tentu saja, sangat berbeda. Jadi, diagram atas menunjukkan dua aplikasi, keduanya mungkin mengakses database, tetapi tentu saja mengakses data pada karat berputar. Dan cara Anda benar-benar membuat berbagai hal mengalir melalui jaringan, tergantung pada dependensi apa yang ada, adalah Anda memiliki ETL. Jadi, ini berarti bahwa, Anda tahu, data masuk ke karat berputar dan kemudian lepas karat berputar untuk pergi ke mana saja, dan untuk mendapatkan di mana saja ia kembali ke karat berputar, yang merupakan tiga gerakan. Dan ingatlah bahwa memori bisa seratus ribu kali lebih cepat daripada disk pemintalan, dan Anda tentu menyadari bahwa mengambil data dan memasukkannya ke dalam memori membuat semuanya menjadi sangat berbeda.

Jadi, Anda mungkin berpikir apa yang akan terjadi pada apa yang ada di layar di sini, Anda mungkin berpikir bahwa, dalam satu atau lain cara, ETL sebenarnya hanya akan berubah dari data ke data dalam memori. Tetapi pada kenyataannya itu mungkin tidak melakukan itu; pada kenyataannya Anda mungkin memiliki situasi di sini di mana dua aplikasi benar-benar dapat mematikan memori yang sama. Tentu saja basis data dalam memori dapat memberikan Anda kemampuan itu, selama Anda memiliki kunci dan segala sesuatu yang diatur di sekitarnya. Jadi, ini tidak hanya mengubah kecepatan barang, ini mengubah cara Anda mengkonfigurasi aplikasi dan aliran data secara keseluruhan.

Jadi, ini adalah dampak yang sangat besar. Jadi, dalam memori mengganggu, kan? Dan kita harus mendapatkannya dari apa yang saya katakan. Pemrosesan dalam memori saat ini adalah akselerator tetapi akan menjadi norma. Ini akan digunakan, diterapkan sesuai dengan nilai aplikasi, dan karena itu sangat, sangat menarik, bahwa SAP benar-benar akan keluar dengan versi perangkat lunak ERP mereka yang ada dalam memori. Dan peningkatan latensi hingga tiga urutan besarnya sepenuhnya mungkin, dan sebenarnya bahkan lebih dari itu mungkin, tergantung pada bagaimana Anda melakukannya. Jadi, Anda mendapatkan peningkatan besar dalam kecepatan dengan masuk ke memori. Dan hasilnya, SAP HANA S / 4 - yang telah mereka rilis, saya pikir, well, orang-orang mengatakan itu masih dirilis, tapi itu pasti dirilis tahun lalu - itu adalah game changer yang diberikan basis pelanggan SAP. Maksud saya, ada 10.000 perusahaan di luar sana yang menggunakan ERP SAP dan hampir semuanya adalah perusahaan besar, Anda tahu. Jadi, ide mereka semua memiliki insentif untuk masuk ke memori dan menggunakan fundamental mereka, karena ERP hampir selalu merupakan aplikasi mendasar yang dijalankan oleh bisnis, itu hanya sebuah game changer yang besar dan itu akan sangat menarik. Tapi tentu saja, semua itu terdengar sangat bagus, tetapi perlu dikonfigurasi secara cerdas dan perlu dimonitor dengan baik. Ini tidak sesederhana kedengarannya.

Setelah mengatakan itu, saya pikir saya akan meneruskan bola, kepada siapa orang ini? Oh, pria Australia, Dez Blanchfield.

Dez Blanchfield: Sangat lucu. Selalu tindakan yang sulit untuk diikuti, Dr. Robin Bloor. Terima kasih telah memilikinya hari ini. Jadi, topik besar, tapi menarik. Jadi, saya telah memilih gambar yang sering saya ingat ketika saya berpikir tentang danau data modern dan gudang data perusahaan, dan permata kecil data saya. Jadi di sini saya punya danau yang indah ini dikelilingi oleh pegunungan dan ombak yang keluar, dan ombaknya menabrak batu-batu ini. Ini, semacam, bagaimana saya memvisualisasikan mental seperti apa di dalam danau data besar hari ini. Gelombang menjadi pekerjaan batch, dan analitik real-time dilemparkan ke data, menjadi batu. Dan ketika saya berpikir tentang hal itu sebagai danau fisik, itu semacam membangkitkan kembali panggilan bangun kepada saya bahwa, Anda tahu, skala gudang data yang kami bangun sekarang, alasan kami datang dengan mata uang ini dan istilah danau data adalah bahwa mereka sangat besar dan mereka sangat dalam, dan kadang-kadang Anda dapat memiliki badai di dalamnya. Dan ketika kami melakukannya, Anda selalu harus menyelesaikan apa yang menciptakan badai.

Jadi dalam tema hal ini, bagi saya nampaknya panggilan sirene dari komputasi dalam memori ini memang sangat kuat dan untuk alasan yang baik. Ini membawa banyak keuntungan komersial dan teknis yang signifikan. Itu diskusi selama beberapa jam di hari lain. Tetapi perubahan umum ke komputasi dalam-memori, pertama-tama saya hanya ingin membahas bagaimana kami sampai di sini dan apa yang memungkinkan ini karena, semacam, menetapkan fondasi di mana beberapa tantangan dapat terletak lebih dulu dan apa yang perlu kita sadari. dari dan berpikir, dalam dunia kita untuk beralih dari disk lama yang memegang data dan dipindahkan ke dan dari disk ke memori dan ke memori dan ke CPU, untuk sekarang kita hanya menghapus hampir satu dari seluruh lapisan itu, menjadi disk yang berputar. Karena ingat, di masa-masa awal komputasi, secara arsitektur, kami tidak beranjak lama dari mainframe atau dunia menengah dari apa yang semula kami anggap sebagai memori inti dan penyimpanan drum, Anda tahu.

Seperti yang dikatakan Dr. Robin Bloor, pendekatan yang kami lakukan untuk memindahkan data di sekitar arsitektur komputer tidak benar-benar berubah secara dramatis selama beberapa waktu, bahkan selama beberapa dekade. Jika Anda berpikir tentang fakta bahwa, Anda tahu, komputasi modern, secara teknis, telah ada, jika Anda akan mengampuni permainan kata-kata, selama 60 tahun, Anda tahu, enam dekade dan lebih dan itu dalam arti bahwa Anda dapat membeli sebuah kotak dari rak, seolah-olah. Pergeseran ke arsitektur baru benar-benar muncul dalam benak saya ketika kami bergeser dari pemikiran tentang mainframe dan midrange, dan memori inti dan arsitektur penyimpanan drum, ke berani atau superkomputer, terutama orang-orang seperti Seymour Cray, di mana hal-hal seperti palang palang belakang menjadi sesuatu. Alih-alih hanya memiliki satu rute untuk memindahkan data melintasi backplane atau motherboard, seperti yang disebut hari ini. Dan memori sebaris, Anda tahu, pada hari-hari ini orang tidak benar-benar berpikir tentang apa artinya sebenarnya ketika mereka mengatakan DIMM dan SIMM. Tapi, SIMM adalah memori inline tunggal dan DIMM adalah memori inline ganda dan kami punya lebih kompleks dari itu karena dan ada puluhan jenis memori yang berbeda untuk hal-hal yang berbeda: beberapa untuk video, beberapa hanya untuk aplikasi umum, beberapa dibangun ke dalam CPU.

Jadi, ada pergeseran besar ke cara baru bahwa data disimpan dan diakses. Kita akan melalui perubahan yang sama di seluruh generasi lain, tetapi tidak begitu banyak dalam perangkat keras itu sendiri tetapi dalam adopsi perangkat keras dalam logika bisnis dan dalam lapisan logika data, dan itu adalah perubahan paradigma besar lain dalam pikiran saya .

Tapi secara singkat tentang bagaimana kita sampai di sini. Maksud saya, teknologi perangkat keras meningkat, dan meningkat secara dramatis. Kami beralih dari memiliki CPU dan gagasan tentang inti adalah konsep yang cukup modern. Kami menerima begitu saja sekarang bahwa ponsel kami memiliki dua atau empat core dan komputer kami memiliki dua atau empat core di desktop dan delapan dan 12 dan lebih banyak lagi, Anda tahu, 16 dan 32 bahkan dalam platform server . Tapi itu sebenarnya hal yang cukup modern bahwa core menjadi kemampuan di dalam CPU dan kami beralih dari 32-bit ke 64-bit. Beberapa hal besar terjadi di sana: kami mendapatkan kecepatan clock yang lebih tinggi pada beberapa core sehingga kami dapat melakukan hal-hal secara paralel dan masing-masing core tersebut dapat menjalankan beberapa thread. Tiba-tiba kita bisa menjalankan banyak hal pada data yang sama pada saat yang bersamaan. Spasi alamat enam puluh empat bit memberi kami hingga dua terabyte RAM, yang merupakan konsep yang fenomenal, tapi itu hal yang sekarang. Arsitektur backplane multipath ini, Anda tahu, motherboard, sekali waktu, Anda hanya bisa melakukan berbagai hal dalam satu arah: mundur dan maju. Dan seperti hari-hari dengan komputasi Cray dan beberapa desain superkomputer pada waktu itu, dan sekarang di komputer desktop dan PC rak-mount umum, semacam, desktop-mount rack-grade, karena benar-benar, sebagian besar modern PC sekarang telah melewati era mainframe, midrange, desktop mikro dan kami telah mengubahnya kembali menjadi server.

Dan banyak dari kemampuan superkomputer itu, desain tingkat superkomputer itu, didorong ke komponen-komponen umum yang tidak tersedia. Anda tahu, akhir-akhir ini, gagasan untuk mengambil PC rack-mount yang sangat murah dan memasukkannya ke dalam rak ratusan, jika tidak ribuan, dan menjalankan perangkat lunak open-source pada mereka seperti Linux dan mengerahkan orang-orang seperti SAP HANA di atasnya, Anda tahu, kita sering menerima begitu saja. Tetapi itu adalah hal yang sangat baru dan menyenangkan dengan kerumitannya.

Perangkat lunak juga menjadi lebih baik, terutama manajemen memori dan partisi data. Saya tidak akan membahas banyak tentang itu, tetapi jika Anda melihat perubahan besar dalam 15 tahun terakhir, atau bahkan kurang, bagaimana memori dikelola, terutama data dalam RAM dan bagaimana data dipartisi dalam RAM, sehingga seperti yang ditunjukkan oleh Dr. Robin Bloor sebelumnya atau disinggung, Anda tahu, segala sesuatu dapat membaca dan menulis pada saat yang sama tanpa memengaruhi satu sama lain, daripada memiliki waktu menunggu. Banyak fitur yang sangat kuat seperti kompresi dan enkripsi on-chip. Enkripsi menjadi hal yang lebih penting dan kita tidak perlu melakukan itu dalam perangkat lunak, dalam RAM, dalam ruang CPU, sekarang yang sebenarnya terjadi pada chip secara asli. Itu mempercepat segalanya secara dramatis. Dan mendistribusikan penyimpanan dan pemrosesan data, sekali lagi, hal-hal yang dulu kami anggap sebagai barang superkomputer dan pemrosesan paralel, kami sekarang menganggapnya begitu saja dalam ruang-ruang seperti SAP HANA dan Hadoop and Spark, dan sebagainya.

Jadi, inti dari semua ini adalah komputasi berkinerja tinggi ini, kemampuan HPC datang ke perusahaan dan sekarang perusahaan menikmati manfaat yang datang dengan itu dalam keuntungan kinerja dan ruang teknologi dan manfaat teknis dan keuntungan komersial, karena, Anda tahu, berkurangnya waktu untuk nilai secara dramatis turun.

Tapi saya menggunakan gambar cerita yang saya baca beberapa waktu lalu tentang seorang pria yang membuat case PC dari Lego, karena selalu terlintas dalam pikiran ketika saya memikirkan beberapa hal ini. Dan begitulah, sepertinya ide yang bagus pada saat Anda mulai membangunnya, dan kemudian Anda menyelesaikannya setengah jalan dan Anda menyadari bahwa sebenarnya sangat sulit untuk menyatukan semua potongan Lego dan membuat benda padat, cukup kokoh untuk meletakkan motherboard dan sebagainya, itu akan membangun kasing untuk komputer pribadi. Dan akhirnya Anda menyadari bahwa semua potongan kecil tidak saling menempel dengan benar dan Anda harus sedikit berhati-hati tentang potongan kecil mana yang Anda tempel bersama untuk membuatnya menjadi padat. Dan itu ide yang sangat lucu, tapi ini panggilan bangun ketika Anda setengah jalan dan Anda menyadari, "Hmm, mungkin saya seharusnya membeli kasing PC seharga $ 300, tapi saya akan menyelesaikannya sekarang dan belajar sesuatu darinya."

Bagi saya itu analogi yang bagus tentang bagaimana rasanya membangun platform yang sangat kompleks ini, karena semuanya baik dan bagus untuk membangunnya dan berakhir dengan lingkungan di mana Anda memiliki router dan switch, server, dan rak. Dan Anda memiliki CPU dan RAM serta sistem operasi yang dikelompokkan bersama. Dan Anda meletakkan sesuatu seperti HANA di atasnya untuk pemrosesan dalam-memori terdistribusi dan penyimpanan data serta manajemen data. Anda membangun tumpukan SAP di atas itu, Anda mendapatkan kemampuan basis data dan kemudian Anda memuat data dan logika bisnis Anda dan Anda mulai menerapkan beberapa membaca dan menulis dan pertanyaan dan sebagainya. Anda harus tetap di atas I / O dan Anda harus menjadwalkan hal-hal dan mengelola beban kerja dan multitenancy dan sebagainya. Tumpukan ini menjadi sangat kompleks, sangat cepat. Itu tumpukan yang kompleks jika itu hanya pada satu mesin. Lipat gandakan dengan 16 atau 32 mesin, itu menjadi sangat, sangat tidak sepele. Saat Anda mengalikan hingga ratusan dan akhirnya ribuan mesin, untuk beralih dari skala 100 terabyte ke skala petabyte, itu adalah konsep yang menakutkan, dan inilah realitas yang sedang kita hadapi sekarang.

Jadi, Anda kemudian berakhir dengan beberapa hal yang juga membantu mengubah dunia ini, dan itu adalah ruang disk menjadi sangat murah. Anda tahu, suatu ketika Anda akan menghabiskan 380 hingga 400 ribu dolar untuk satu gigabyte hard disk ketika itu adalah drum besar seukuran - sesuatu yang membutuhkan forklift untuk mengambilnya. Saat ini tergantung pada, semacam, satu atau dua sen per gigabyte ruang disk komoditas. Dan RAM melakukan hal yang sama. Kedua kurva-J pada kedua grafik ini, masing-masing adalah satu dekade, jadi dengan kata lain, kita melihat dua blok 10 tahun, pengurangan harga 20 tahun. Tapi saya memecahnya menjadi dua kurva-J karena pada akhirnya yang di sebelah kanan hanya menjadi garis putus-putus dan Anda tidak bisa melihat detailnya, jadi saya skala ulang. Satu gigabyte RAM 20 tahun lalu adalah sekitar enam setengah juta dolar. Saat ini jika Anda membayar lebih dari tiga atau empat dolar untuk satu gigabyte RAM untuk perangkat keras komoditas yang sedang dirampok.

Penurunan signifikan dalam penurunan harga selama dua dekade terakhir berarti bahwa sekarang kita dapat bergerak melampaui ruang disk dan langsung memasuki RAM, tidak hanya pada level megabyte, tetapi sekarang level terabyte dan memperlakukan RAM seperti disk itu. Kendati demikian, tantangannya adalah bahwa RAM pada dasarnya bersifat sementara - itu berarti sesuatu yang bertahan untuk jangka waktu yang singkat - jadi, kita harus menemukan cara untuk memberikan ketahanan ke ruang itu.

Jadi, maksud saya di sini adalah bahwa komputasi dalam-memori bukan untuk orang yang lemah hati. Menyulap data dalam-memori berskala sangat besar ini dan pemrosesan di sekitarnya merupakan tantangan yang menarik; seperti yang saya sebutkan sebelumnya, ini bukan untuk orang yang lemah hati. Jadi, satu hal yang kami pelajari dari pengalaman ini dengan komputasi dalam-memori skala besar dan kepadatan tinggi adalah bahwa kompleksitas yang kami bangun menimbulkan risiko di sejumlah bidang.

Tapi mari kita lihat dari sudut pandang pemantauan dan respons. Ketika kita memikirkan data, itu dimulai di ruang disk, itu duduk di database dalam disk, kita mendorongnya ke dalam memori. Setelah itu dalam memori dan didistribusikan dan ada salinannya, kita dapat menggunakan banyak salinannya, dan jika ada perubahan, itu dapat tercermin di tingkat memori alih-alih harus menyala dan mati dan melintasi backplane di dua tingkat yang berbeda, itu masuk dan keluar dari memori. Kami telah berakhir dengan platform perangkat keras hiperskala ini yang memungkinkan kami melakukan ini sekarang. Ketika kita berbicara tentang hyperscaling, itu lebih sulit pada tingkat yang sangat padat, dan memori kepadatan sangat tinggi, jumlah CPU dan inti dan inti dan kepadatan yang sangat tinggi. Kami sekarang punya patologi jaringan yang sangat sangat kompleks untuk mendukung ini karena data memang harus bergerak melintasi jaringan di beberapa titik jika akan berpindah di antara node dan cluster.

Jadi, kita berakhir dengan redundansi kesalahan perangkat yang menjadi masalah dan kita harus memonitor perangkat dan bagian-bagiannya. Kita harus memiliki redundansi kesalahan data yang tangguh di dalam platform itu dan memantaunya. Kita harus memiliki ketahanan basis data terdistribusi bawaan sehingga kita harus memantau platform basis data dan menumpuk di dalamnya. Kita harus memantau penjadwalan pemrosesan terdistribusi, apa yang terjadi di dalam beberapa proses sampai ke pemungutan suara dan kueri serta jalur yang kueri ambil dan cara kueri disusun dan dieksekusi. Seperti apa rupanya, apakah seseorang melakukan SELECT * pada "bla" atau apakah mereka benar-benar melakukan kueri yang sangat cerdas dan terstruktur dengan baik yang akan memberi mereka jumlah data minimum dan nominal yang melintasi arsitektur di backplane? Kami memiliki beban kerja multitenancy, banyak pengguna, dan beberapa grup menjalankan beban kerja dan batch yang sama atau multipel dan penjadwalan waktu-nyata. Dan kami memiliki campuran proses batch dan real-time. Beberapa hal hanya berjalan secara teratur - setiap jam, harian, mingguan, atau bulanan - hal lain sesuai permintaan. Seseorang mungkin duduk di sana dengan tablet yang ingin membuat laporan waktu nyata.

Dan lagi, kita sampai pada titik itu, bahwa kompleksitas yang muncul dalam ini bukan hanya tantangan sekarang, itu cukup menakutkan. Dan kami memiliki kenyataan ini memeriksa bahwa satu masalah kinerja tunggal, hanya satu masalah kinerja sendiri, dapat berdampak pada seluruh ekosistem. Jadi, kita berakhir dengan tantangan yang sangat menyenangkan untuk mencari tahu, yah, di mana dampaknya? Dan kita memiliki tantangan ini, apakah kita bersikap reaktif atau proaktif? Apakah kita menontonnya secara real time dan melihat sesuatu berjalan “menggedor” dan menanggapinya? Atau apakah kita telah melihat suatu bentuk tren dan menyadari bahwa kita perlu secara proaktif bergabung dengannya? Karena kuncinya adalah semua orang menginginkan sesuatu yang cepat dan murah serta mudah. Tapi kita berakhir dengan skenario ini, apa yang saya suka rujuk dan baris favorit saya dari teka-teki Donald Rumsfeld - yang dalam pikiran saya berlaku dalam semua skenario dengan kompleksitas tinggi - dan itu adalah, kita telah dikenal dikenal karena itu adalah sesuatu kami merancang dan membangun dan berjalan sesuai rencana. Kami mengetahui hal-hal yang tidak diketahui karena kami tidak tahu siapa yang menjalankan apa, kapan dan di mana, jika itu sesuai permintaan. Dan kita memiliki hal-hal yang tidak diketahui dan itu adalah hal-hal yang perlu kita pantau dan periksa. Karena kenyataannya adalah, kita semua tahu, Anda tidak dapat mengelola sesuatu yang tidak dapat Anda ukur.

Jadi, untuk memiliki alat yang tepat dan kemampuan yang tepat untuk memantau penjadwalan CPU kami, cari waktu tunggu, cari tahu mengapa semuanya harus menunggu dalam jadwal antrian di jalur pipa. Apa yang terjadi dalam memori, pemanfaatan seperti apa yang dilakukan, kinerja seperti apa yang kita dapatkan dari memori? Apakah barang dipartisi dengan benar, apakah didistribusikan, apakah kita memiliki cukup simpul yang memegang salinannya untuk mengatasi beban kerja yang dilemparkan kepadanya? Apa yang terjadi dengan eksekusi proses yang jauh dari proses sistem operasi? Pekerjaan itu sendiri berjalan, aplikasi individual dan daemon yang mendukungnya? Apa yang terjadi di dalam proses-proses itu, khususnya penataan pertanyaan dan bagaimana pertanyaan itu dijalankan dan disusun? Dan kesehatan dari proses-proses itu di stack? Anda tahu, sekali lagi, kembali ke waktu menunggu, apakah itu menjadwalkan dengan benar, apakah itu harus menunggu, di mana itu menunggu, apakah itu menunggu memori dibaca, I / Os, CPU, I / O melintasi jaringan ke pengguna akhir ?

Dan kemudian kembali ke titik yang baru saja saya sebutkan sebelum saya selesai dan itu adalah, bagaimana kita mendekati resolusi masalah dan waktu respon untuk itu? Apakah kita menonton secara real time dan bereaksi terhadap berbagai hal, yang merupakan skenario paling ideal, tetapi meskipun begitu, lebih baik kita melakukan itu daripada tidak tahu dan meminta bantuan help desk dan mengatakan ada yang tidak beres dan kita harus melacaknya ? Atau apakah kita melakukannya secara proaktif dan apakah kita sedang melihat apa yang akan terjadi? Jadi, dengan kata lain, apakah kita melihat kita kehabisan memori dan perlu menambahkan lebih banyak node? Apakah kita melakukan analisis tren, apakah kita melakukan perencanaan kapasitas? Dan dalam semua itu, apakah kita memantau waktu pelaksanaan historis dan berpikir tentang perencanaan kapasitas atau apakah kita menontonnya secara real time dan menjadwalkan ulang secara proaktif dan melakukan penyeimbangan muatan? Dan apakah kita menyadari beban kerja yang berjalan di tempat pertama? Apakah kita tahu siapa yang melakukan apa di cluster kita dan mengapa?

Komputasi dalam memori sangat kuat, tetapi dengan kekuatan itu hampir salah satu dari hal-hal itu, seperti, pistol dimuat dan Anda bermain dengan amunisi hidup. Pada akhirnya Anda bisa menembak diri sendiri di kaki jika tidak hati-hati. Jadi, kekuatan penghitungan dalam memori hanya berarti bahwa kita dapat menjalankan lebih banyak dan lebih cepat melintasi set data yang sangat terdistribusi dan terpisah. Tapi kemudian itu memiliki permintaan yang lebih tinggi didorong dari pengguna akhir. Mereka terbiasa dengan kekuatan itu dan mereka menginginkannya. Mereka tidak lagi mengharapkan pekerjaan berjalan berminggu-minggu dan laporan muncul di koran biasa. Dan kemudian, di bawah semua itu kami memiliki pemeliharaan sehari-hari yang dikelilingi oleh perbaikan, pembaruan, dan peningkatan. Dan jika Anda berpikir tentang pemrosesan 24/7 dengan penghitungan dalam-memori, mengelola data itu, mengelola beban kerja di atasnya, semuanya ada dalam memori, secara teknis dalam platform singkat, jika kita akan mulai menerapkan tambalan dan pembaruan serta peningkatan di di sana, hal itu juga disertai dengan berbagai tantangan manajemen dan pemantauan lainnya. Kita perlu tahu apa yang bisa kita ambil offline, kapan kita bisa memutakhirkannya dan kapan kita membawanya kembali online. Dan itu membawa saya ke poin terakhir saya dan itu adalah, bahwa ketika kita mendapatkan semakin banyak kompleksitas dalam sistem ini, itu bukan sesuatu yang manusia dapat lakukan hanya dengan mengisap ibu jari mereka dan menarik telinga mereka lagi. Tidak ada, semacam, usus pendekatan perasaan lagi. Kami benar-benar membutuhkan alat yang tepat untuk mengelola dan memberikan kinerja tingkat tinggi ini dalam komputasi dan pengelolaan data.

Dan dengan itu dalam pikiran saya akan menyerahkan kepada teman kami dari IDERA dan mendengar bagaimana mereka telah mendekati tantangan ini.

Bill Ellis: Terima kasih banyak. Saya membagikan layar saya dan ini dia. Jadi, sangat merendahkan hati untuk mempertimbangkan semua teknologi, dan semua orang yang datang sebelum kita, untuk membuat barang ini tersedia pada tahun 2017, tersedia. Kita akan berbicara tentang analisis beban kerja untuk SAP HANA - pada dasarnya, solusi pemantauan basis data: komprehensif, tanpa agen, menyediakan waktu nyata dan itu membangun sejarah, sehingga Anda dapat melihat apa yang terjadi di masa lalu. SAP S / 4 HANA menawarkan potensi yang lebih baik, lebih cepat dan lebih murah. Saya tidak mengatakan itu murah, saya hanya mengatakan itu lebih murah. Agak, secara tradisional apa yang terjadi adalah bahwa Anda akan memiliki contoh produksi utama - mungkin berjalan pada Oracle di toko yang lebih besar, berpotensi SQL Server - dan kemudian Anda akan menggunakan proses ETL dan Anda akan memiliki beberapa, jenis, versi kebenaran . Dan ini sangat mahal karena Anda membayar untuk perangkat keras, sistem operasi, lisensi Oracle untuk masing-masing lingkungan ini. Dan di atas itu, Anda perlu meminta orang untuk merekonsiliasi satu versi kebenaran ke versi kebenaran berikutnya. Jadi, pemrosesan ETL multi-versi ini lambat dan sangat, sangat rumit.

Jadi, HANA, pada dasarnya satu contoh HANA, berpotensi menggantikan semua contoh lainnya. Jadi, ini lebih murah karena ini adalah satu platform perangkat keras, satu sistem operasi, daripada banyak. Jadi S / 4 HANA, sungguh, itu mengubah segalanya dan Anda pada dasarnya melihat evolusi SAP dari R / 2 menjadi R / 3, berbagai paket perangkat tambahan. Sekarang, sistem lawas tersedia hingga 2025, jadi Anda punya delapan tahun hingga Anda benar-benar terpaksa bermigrasi. Meskipun kami melihat orang-orang, Anda tahu, mencoba-coba melakukan ini karena mereka tahu itu akan datang dan akhirnya, Anda tahu, ECC akan berjalan di HANA dan jadi Anda benar-benar harus siap untuk itu dan memahami teknologinya.

Jadi, satu database, tidak ada proses ETL, tidak ada salinan yang harus direkonsiliasi. Jadi, sekali lagi, lebih cepat, lebih baik dan lebih murah. HANA ada di memori. SAP memasok perangkat lunak, Anda memasok perangkat keras. Tidak ada tabel agregat. Salah satu hal yang mereka, agak, sarankan ketika Anda berpikir tentang ini adalah Anda tidak ingin masuk ke ini, kami hanya akan membeli server yang sangat besar yang tersedia. Mereka menyarankan agar Anda, jenis, ukuran kanan lansekap SAP Anda sebelumnya dan mereka pada dasarnya mengatakan, jangan bermigrasi nilai data 20 tahun. Saya pikir pengarsipan adalah sesuatu yang kurang dimanfaatkan di bidang TI, semacam, secara keseluruhan, tidak hanya di toko-toko SAP. Dan hal berikutnya adalah bahwa SAP sebenarnya telah menghabiskan banyak waktu menulis ulang kode asli mereka untuk tidak menggunakan SELECT *. SELECT * mengembalikan semua kolom dari tabel dan ini sangat mahal dalam database kolom. Jadi, itu bukan ide yang baik untuk SAP HANA. Jadi, untuk toko yang memiliki banyak penyesuaian, banyak laporan, ini adalah sesuatu yang ingin Anda cari dan Anda ingin menentukan nama kolom saat Anda melanjutkan untuk memigrasi semuanya ke HANA.

Kami ingin mengatakan bahwa HANA bukanlah obat mujarab. Seperti semua basis data, semua teknologi, ia perlu dimonitor, dan seperti yang disebutkan sebelumnya, Anda membutuhkan angka untuk mengelola kelebihan, pengukuran dengan pengukuran. Dan salah satu hal yang saya bicarakan di area IDERA adalah bahwa setiap transaksi bisnis berinteraksi dengan sistem catatan, dan dalam hal ini, itu akan menjadi HANA. Jadi, HANA menjadi dasar untuk kinerja transaksi SAP Anda, pengalaman pengguna akhir. Jadi, sangat penting untuk tetap berjalan dengan kecepatan tinggi. Itu menjadi satu titik kegagalan, dan dalam berbicara dengan orang-orang, ini adalah sesuatu yang dapat muncul di mana Anda memiliki pengguna akhir dan mungkin menggunakan data real-time dan mereka memiliki permintaan ad hoc yang berpotensi tidak cukup Baik. Mungkin mereka tidak bergabung dengan tabel dan mereka telah membuat gabungan luar, produk partisan, dan mereka pada dasarnya menghabiskan banyak sumber daya. Sekarang, HANA akan mengenali itu pada akhirnya dan membunuh sesi itu. Jadi ada bagian penting dari arsitektur kami yang akan memungkinkan Anda untuk menangkapnya dalam sejarah, sehingga Anda dapat melihat apa yang terjadi di masa lalu dan mengenali situasi itu.

Jadi, mari kita lihat analisis beban kerja untuk SAP HANA. Ini adalah Versi 1 sehingga kami sangat mengundang Anda untuk bergabung dengan kami dalam perjalanan, dan ini adalah produk dari IDERA. Ini komprehensif, namun sederhana. Real-time dengan tren. Kesehatan inang, misalnya kesehatan. Kami melacak status tunggu, kueri SQL, konsumen memori dan layanan. Jadi, seperti inilah tampilan GUI dan Anda dapat langsung melihat bahwa web diaktifkan. Saya benar-benar membuka solusi ini berjalan langsung di sistem saya. Ada beberapa hal penting yang ingin Anda lihat. Kami telah, agaknya, dibagi lagi menjadi ruang kerja yang berbeda. Jenis yang paling penting adalah apa yang terjadi di tingkat host dari pemanfaatan CPU dan pemanfaatan memori. Anda pasti tidak ingin mencapai sudut pandang yang menukar atau meronta-ronta. Dan kemudian Anda pada dasarnya bekerja turun ke dalam apa yang terjadi dalam tren, dari waktu respons, pengguna, pernyataan SQL, yaitu, apa yang mendorong aktivitas pada sistem.

Salah satu hal dengan IDERA adalah bahwa, Anda tahu, tidak ada yang terjadi pada database sampai ada aktivitas. Dan aktivitas itu adalah pernyataan SQL yang berasal dari aplikasi. Jadi, mengukur pernyataan SQL sangat penting untuk dapat mendeteksi penyebab root. Jadi, mari kita lanjutkan dan masuk. Jadi, pada level host, kita benar-benar dapat melihat memori, melacak dari waktu ke waktu, penggunaan host CPU. Langkah mundur, Anda bisa melihat pernyataan COBSQL. Sekarang, salah satu hal yang akan Anda lihat di sisi arsitektur kami adalah informasi ini disimpan dari HANA, jadi jika sesuatu terjadi pada HANA, kami pada dasarnya menangkap informasi hingga, Tuhan melarang, situasi tidak tersedianya . Kami juga dapat menangkap semua yang terjadi pada sistem sehingga Anda memiliki visibilitas yang jelas. Dan salah satu hal yang akan kita lakukan adalah kita akan menyajikan pernyataan SQL dalam urutan tertimbang. Jadi, itu akan memperhitungkan jumlah eksekusi, dan jadi ini adalah konsumsi sumber daya agregat.

Jadi Anda bisa masuk ke metrik individual di sini - kapan pernyataan SQL itu dijalankan? Dan kemudian konsumsi sumber daya sebagian besar didorong oleh rencana eksekusi, dan karenanya kami dapat menangkapnya secara berkelanjutan. HANA ada di memori. Ini sangat paralel. Itu memang memiliki indeks utama di setiap tabel, yang beberapa toko memilih untuk membangun indeks sekunder untuk mengatasi masalah kinerja tertentu. Jadi, agaknya, mengetahui apa yang terjadi dengan rencana eksekusi untuk pernyataan SQL tertentu bisa sangat berharga. Kami juga akan melihat layanan, konsumsi memori sekali lagi, memetakan dari waktu ke waktu. Arsitektur: jadi, ini adalah solusi mandiri yang dapat Anda unduh dari situs web kami dan arsitekturnya adalah web-enabled.

Anda dapat memiliki beberapa pengguna terhubung ke contoh tertentu. Anda dapat memonitor instance SAP HANA lokal. Dan kami menyimpan sejarah empat minggu bergulir di repositori kami dan itu dikelola sendiri. Untuk menggunakan ini, ini agak sederhana. Anda memerlukan Server Windows. Anda perlu mengunduhnya. Sebagian besar Windows Server akan memiliki .NET framework dan dibundel dengan lisensi. Jadi Anda akan pergi ke wizard instalasi yang didorong oleh Setup.exe dan itu benar-benar akan membuka layar, perjanjian lisensi, dan Anda hanya akan bekerja di garis besar ini dengan mengklik "Next." Jadi, di mana Anda ingin HANA untuk dipasang? Berikutnya adalah properti basis data, dan ini akan menjadi koneksi Anda ke SAP HANA, jadi ini adalah pemantauan tanpa agen dari instance HANA. Dan pada dasarnya kami akan memberikan pratinjau, ini adalah port yang kami komunikasikan secara default. Klik "Instal" dan itu pada dasarnya memulai HANA dan Anda mulai membangun sejarah. Jadi, hanya sedikit informasi ukuran grafik. Kita dapat memonitor hingga 45 instance HANA, dan Anda akan ingin menggunakan ini, semacam, pada skala geser untuk menentukan jumlah core, memori, ruang disk yang Anda perlukan. Dan ini mengasumsikan bahwa Anda memiliki sejarah bergulir empat minggu lengkap masuk

Jadi, seperti rekap cepat, kita sedang melihat kesehatan server, misalnya kesehatan, pemanfaatan CPU / memori. Apa konsumen memori, apa pendorong aktivitas, apa layanannya? Pernyataan SQL sangat penting - apa saja status eksekusi? Tunjukkan pada saya rencana eksekusi, kapan semuanya berjalan, memberikan tren? Ini akan memberi Anda waktu nyata dan sejarah tentang apa yang telah terjadi. Dan seperti yang saya sebutkan, karena sejarah kami terpisah dari HANA, kami akan menangkap hal-hal yang telah kehabisan waktu dan telah memerah dari sejarah HANA. Sehingga Anda dapat melihat konsumsi sumber daya yang sebenarnya di sistem Anda karena sejarah yang terpisah.

Jadi, seperti yang saya sebutkan, situs web IDERA, di bawah Products, Anda dapat dengan mudah menemukan ini. Jika Anda ingin mencobanya, Anda tentu dapat. Lihat bagaimana ini memberikan informasi untuk Anda dan ada informasi tambahan di situs web itu. Jadi, semua pihak yang tertarik lebih dari senang untuk membahasnya. Sekarang, dalam produk portofolio yang ditawarkan oleh IDERA, ada juga monitor transaksi SAP ECC, dan ini disebut Precise for SAP. Dan apa yang dilakukannya adalah - apakah Anda menggunakan portal atau hanya ECC langsung - itu benar-benar akan menangkap transaksi pengguna akhir dari klik ke disk, sampai ke pernyataan SQL dan menunjukkan kepada Anda apa yang terjadi.

Sekarang, saya tunjukkan hanya satu layar ringkasan. Ada beberapa takeaways yang saya ingin Anda miliki dari layar ringkasan ini. Ini waktu respons sumbu Y, waktu sumbu X plus hari, dan dalam tampilan transaksi ini kami akan menunjukkan waktu klien, waktu antrian, waktu kode ABAP, waktu basis data. Kami dapat menangkap ID pengguna akhir, kode-T dan Anda benar-benar dapat memfilter dan menampilkan server melalui transaksi tertentu yang dilalui. Jadi, banyak toko menjalankan ujung depan lanskap di bawah VMware, sehingga Anda dapat benar-benar mengukur apa yang terjadi pada masing-masing server dan melakukan analisis yang sangat rinci. Jadi, tampilan transaksi ini adalah untuk transaksi pengguna akhir melalui seluruh lanskap SAP. Dan Anda dapat menemukannya di situs web kami di bawah Products APM Tools dan ini akan menjadi solusi SAP yang kami miliki. Instalasi untuk ini sedikit lebih rumit, jadi tidak hanya mengunduh dan mencobanya, seperti yang kita miliki untuk HANA. Ini adalah sesuatu di mana kami akan bekerja bersama untuk melakukan, merancang, dan mengimplementasikan transaksi keseluruhan untuk Anda.

Jadi, hanya rekap cepat ketiga, analisis beban kerja untuk SAP HANA, ini komprehensif, tanpa agen, waktu nyata, menawarkan sejarah. Kami menawarkan kemampuan untuk mengunduh dan mencobanya untuk situs Anda.

Jadi, dengan itu, saya akan melewatkan waktu kembali ke Eric, Dez dan Dr. Bloor.

Eric Kavanagh: Ya, mungkin Robin, ada pertanyaan dari Anda, dan kemudian Dez setelah Robin?

Robin Bloor: Oke. Maksud saya, hal pertama yang ingin saya katakan adalah saya sangat suka tampilan transaksi karena itulah yang saya inginkan dalam situasi itu. Saya melakukan banyak pekerjaan - yah, sudah lama sekali sekarang - melakukan pemantauan kinerja, dan itu semacam itu; kami tidak memiliki grafik pada masa itu, tapi itu adalah jenis hal yang ingin saya lakukan. Sehingga Anda bisa, dengan satu atau lain cara, menyuntikkan diri ke mana pun masalahnya terjadi.

Pertanyaan pertama yang saya miliki adalah, Anda tahu, kebanyakan orang menerapkan S / 4 dengan cara tertentu atau tidak langsung, Anda tahu. Ketika Anda terlibat dalam implementasi tertentu dari S / 4, apakah Anda menemukan bahwa itu telah diterapkan dengan baik atau apakah Anda akhirnya, Anda tahu, menemukan hal-hal yang mungkin membuat pelanggan ingin melakukan konfigurasi ulang? Maksudku, bagaimana semua itu?

Bill Ellis: Ya, setiap toko sedikit berbeda. Dan ada pola penggunaan yang berbeda, ada laporan berbeda. Untuk situs yang memiliki pelaporan ad hoc, maksud saya itu sebenarnya, semacam, wildcard pada sistem. Jadi, salah satu hal penting adalah memulai pengukuran dan mencari tahu apa garis dasarnya, apa yang normal untuk situs tertentu, di mana situs tertentu itu, berdasarkan pola penggunaannya, menekankan sistem. Dan kemudian melakukan penyesuaian dari sana. Biasanya optimisasi pemantauan bukan satu kali, ini benar-benar praktik yang berkelanjutan di mana Anda memantau, menyetel, mengasah, membuat sistem lebih baik bagi komunitas pengguna akhir untuk dapat melayani bisnis lebih efektif.

Robin Bloor: Oke, jadi ketika Anda menerapkan - Maksud saya, saya tahu ini adalah pertanyaan yang sulit dijawab karena akan bervariasi tergantung pada ukuran implementasi - tetapi berapa banyak sumber daya yang melakukan kemampuan pemantauan IDERA, berapa banyak yang dikonsumsi ? Apakah ada bedanya dengan sesuatu atau itu, hanya saja tidak mengganggu? Bagaimana cara kerjanya?

Bill Ellis: Ya, saya akan mengatakan bahwa biaya overhead sekitar 1-3 persen. Banyak toko yang rela mengorbankan itu karena berpotensi Anda akan dapat membelinya kembali dalam hal optimasi. Itu tergantung pada pola penggunaan. Jika Anda melakukan lansekap penuh, itu tergantung pada teknologi individual yang sedang dipantau. Jadi, jenis, jarak tempuh memang bervariasi, tetapi seperti yang kita bicarakan, lebih baik menghabiskan sedikit untuk mengetahui apa yang terjadi, daripada hanya menjadi buta. Terutama, Anda tahu, di sini kita di bulan Januari dan Anda masuk ke pemrosesan akhir tahun dan Anda mengumpulkan data 12 bulan. Anda tahu, itu melakukan kinerja, memberikan laporan kepada organisasi pengatur, bank, kepada pemegang saham, sangat penting dalam kinerja bisnis yang kritis.

Robin Bloor: Benar. Dan hanya dengan cepat, dari sudut pandang Anda - karena saya kira Anda di luar sana terlibat dengan seluruh rangkaian situs SAP - seberapa besar pergerakan di antara basis pelanggan SAP menuju S / 4? Maksud saya, apakah ada sesuatu yang sedang terjadi, Anda tahu, bahwa ada semacam longsoran pelanggan yang antusias akan hal itu, atau apakah itu hanya tetesan konstan? Bagaimana Anda melihatnya?

Bill Ellis: Saya pikir beberapa tahun yang lalu, saya akan mengatakan itu adalah jari kaki. Sekarang saya akan mengatakan bahwa orang-orang, semacam, sampai ke lutut mereka. Saya pikir, Anda tahu, mengingat timeline orang akan benar-benar tenggelam dalam HANA selama beberapa tahun ke depan. Jadi pemantauan, transformasi, Anda tahu, saya pikir mayoritas pelanggan, semacam, pada kurva belajar bersama. Jadi saya pikir kita tidak cukup dalam longsoran salju seperti yang Anda katakan, tapi saya pikir kita berada di puncak transformasi utama ke HANA.

Robin Bloor: Oke, jadi dalam hal situs-situs yang telah Anda lihat yang cocok untuk ini, apakah mereka juga mengadaptasi HANA untuk aplikasi lain atau apakah mereka, dengan satu atau lain cara, semacam, sepenuhnya dikonsumsi untuk membuat ini pekerjaan barang? Apa gambarnya di sana?

Bill Ellis: Ya, seringkali orang akan mengintegrasikan SAP dengan sistem lain, tergantung pada modul apa dan sebagainya, jadi ada sedikit. Saya belum benar-benar melihat orang menyebarkan aplikasi lain di HANA dulu. Itu tentu mungkin dilakukan. Dan itu lebih di sekitar lanskap di sekitar infrastruktur SAP.

Robin Bloor: Saya rasa sebaiknya saya serahkan kepada Dez. Saya sudah memonopoli waktu Anda. Dez?

Dez Blanchfield: Terima kasih. Tidak, itu bagus. Dua yang sangat cepat, hanya untuk mencoba mengatur tema. SAP HANA telah keluar selama beberapa tahun sekarang dan orang-orang memiliki kesempatan untuk mempertimbangkannya. Jika Anda memberi kami perkiraan kasar dari persentase orang yang menjalankannya - karena ada banyak orang yang menjalankan hal ini - apa yang Anda pikirkan persentase pasar yang Anda ketahui saat ini yang telah hilang dari hanya implementasi SAP tradisional ke SAP di HANA? Apakah kita melihat 50/50, 30/70? Berapa, jenis, persentase pasar yang Anda lihat dari orang-orang yang melakukan transisi dan membuat langkah sekarang versus orang-orang yang hanya menahan diri dan menunggu hal-hal untuk meningkat atau menjadi lebih baik atau berubah atau apa pun kasusnya?

Bill Ellis: Ya, saya benar-benar menempatkan, dari perspektif saya, saya akan menempatkan persentasenya sekitar 20 persen. SAP cenderung menjadi bisnis tradisional. Orang-orang cenderung sangat konservatif sehingga orang-orang mereka akan terseret. Saya pikir itu juga tergantung pada, Anda tahu, apakah Anda telah menjalankan SAP untuk waktu yang lama, atau apakah Anda, jenis SMB yang mungkin memiliki SAP yang lebih baru digunakan? Jadi, ada beberapa faktor, tetapi secara keseluruhan saya tidak berpikir persentasenya 50/50. Saya akan mengatakan 50 persen setidaknya mencoba-coba dan menjalankan HANA di suatu tempat di pusat data mereka.

Dez Blanchfield: Hal menarik yang Anda berikan kepada kami sebelumnya adalah bahwa ini adalah fait accompli dalam arti dan bahwa jam secara fisik dan literal terus berdetak pada waktu untuk transisi. Dalam proses melakukan itu, menurut Anda apakah orang telah mempertimbangkan hal itu? Apa pengertian umum dari pemahaman rakyat bahwa ini adalah perubahan transisi dalam platform, itu bukan hanya pilihan, itu menjadi default?

Dan dari sudut pandang SAP, saya yakin mereka mendorong seperti itu karena ada keunggulan kompetitif yang signifikan dalam kinerja, tetapi itu juga, saya kira, mereka merebut kendali dari platform alih-alih ke yang ketiga. database partai, mereka sekarang membawanya kembali ke platform mereka sendiri. Apakah Anda pikir perusahaan benar-benar mendapatkan pesan itu? Apakah Anda pikir orang mengerti itu dan sekarang siap untuk itu? Atau apakah itu masih, semacam, hal yang tidak jelas, menurut Anda, keluar dari pasar?

Bill Ellis: Saya tidak berpikir SAP malu berkomunikasi dan orang-orang yang pergi ke SAPPHIRE telah melihat HANA di mana-mana. Jadi, saya pikir orang-orang sangat sadar, tetapi sifat manusia seperti apa adanya, Anda tahu, beberapa orang, agaknya, sedikit menyeret kaki mereka.

Dez Blanchfield: Karena saya pikir alasan saya mengajukan pertanyaan itu, dan Anda harus memaafkan saya, tetapi saya setuju. Saya pikir mereka tidak malu berkomunikasi dengannya. Saya pikir sinyal keluar dengan berbagai cara. Dan saya setuju dengan Anda - saya tidak tahu bahwa semua orang sudah melompat. Anda tahu, perusahaan tradisional, perusahaan yang sangat besar yang menjalankan ini, masih dalam banyak hal, tidak cukup menyeret mereka, tetapi hanya mencoba untuk bergulat dengan kompleksitas pergeseran. Karena saya pikir satu hal yang alat Anda, dan tentu saja demonstrasi Anda hari ini telah disorot, dan bagi saya, satu bungkus kunci yang saya ingin semua orang mendengarkan dan mendengarkan hari ini untuk duduk dan memperhatikan reflektif adalah, Anda punya alat sekarang yang menyederhanakan proses itu dalam pikiran saya. Saya pikir ada sekelompok CIO yang sangat gugup dan tim mereka di bawah mereka yang berpikir, “Bagaimana saya melakukan transisi dari RDBMS tradisional, sistem manajemen basis data relasional, yang telah kita kenal selama beberapa dekade, ke paradigma baru tentang komputasi dan manajemen penyimpanan di ruang yang masih relatif berani? ”menurut saya. Tetapi dalam banyak hal hal ini tidak diketahui, dan ada sangat sedikit orang yang melakukan perubahan di bidang lain, bahwa mereka tidak memiliki bagian bisnis lain yang telah beralih ke penghitungan dalam memori. Jadi, ini adalah langkah semua atau tidak sama sekali dalam pikiran mereka.

Jadi, salah satu hal yang saya ambil dari ini lebih dari apa pun - saya akan memukul Anda dengan sebuah pertanyaan dalam satu menit - adalah ketakutan itu sekarang, saya pikir, dilenyapkan dalam banyak hal dan sebelum hari ini, jika saya seorang CIO yang mendengarkan, saya akan, semacam, berpikir, “Yah, bagaimana saya akan melakukan transisi ini? Bagaimana saya akan menjamin kemampuan yang sama dengan yang kami miliki di platform manajemen basis data relasional dan pengalaman bertahun-tahun dari DBA, ke platform baru yang saat ini tidak memiliki keahlian kami? ”Jadi, pertanyaan saya dengan itu adalah, apakah Anda pikir orang-orang mengerti bahwa alat-alat itu ada di sana sekarang dengan apa yang Anda tawarkan, dan bahwa mereka dapat, agaknya, menarik napas dalam-dalam dan lega bahwa peralihannya tidak seseram yang mungkin terjadi sebelumnya alat ini tersedia? Apakah Anda pikir orang-orang telah memahami itu atau masih, semacam, sesuatu yang mereka hanya bergumul dengan transisi ke penghitungan dalam memori dan penyimpanan dalam memori dibandingkan kombinasi NVMe, flash dan disk lama-sekolah?

Bill Ellis: Ya, jadi pasti ada banyak teknologi dan alat yang dapat menampilkan ini secara grafis, apa yang terjadi dan membuatnya sangat mudah untuk menentukan konsumen sumber daya terbaik. Maksud saya, ini membantu menyederhanakan banyak hal dan membantu staf teknologi benar-benar mendapatkan pegangan yang baik. Hei, mereka akan bisa tahu apa yang sedang terjadi dan bisa memahami semua kerumitan. Jadi, tentu saja, alat di pasar sangat membantu dan jadi kami menawarkan analisis beban kerja untuk SAP HANA.

Dez Blanchfield: Ya, saya pikir hal hebat tentang apa yang telah Anda tunjukkan kepada kami hari ini adalah bahwa, dalam memantau perangkat keras, sistem operasi, bahkan memantau beberapa beban kerja yang bergerak, seperti yang Anda katakan, maksud saya, alat-alat telah ada di sana untuk beberapa waktu. Bagi saya, terutama di dalam HANA adalah bahwa kita belum tentu memiliki kemampuan untuk mendapatkan kaca pembesar dan mengintip ke dalamnya dan melihat langsung ke apa alat Anda lakukan dengan apa yang terjadi dengan pertanyaan dan bagaimana mereka sedang disusun dan di mana beban itu.

Dengan penyebaran yang Anda lihat sejauh ini, mengingat bahwa Anda benar-benar yang paling otoritatif dalam ruang ini di platform Anda di dunia, beberapa kemenangan cepat yang pernah Anda lihat - apakah Anda punya pengetahuan anekdotal yang bisa Anda bagikan kami sekitar beberapa momen eureka, momen aha, di mana orang-orang telah menggunakan perangkat IDERA, mereka telah menemukan hal-hal yang mereka tidak sadari ada di platform dan pertunjukan yang mereka miliki. Pernahkah Anda mendapatkan contoh anekdot yang bagus tentang di mana orang baru saja menyebarkannya, tidak benar-benar mengetahui apa yang mereka miliki dan tiba-tiba hilang, "Wow, kami sebenarnya tidak tahu itu ada di sana?"

Bill Ellis: Ya, jadi batasan besar dari alat asli adalah bahwa jika kueri pelarian dibatalkan, itu menyiram informasi dan pada dasarnya Anda tidak memiliki sejarah. Dengan kami menyimpan riwayat secara offline, seperti kueri pelarian, Anda akan memiliki riwayat, Anda akan tahu apa yang terjadi, Anda akan dapat melihat rencana eksekusi dan sebagainya. Jadi, itu memungkinkan Anda untuk, semacam, membantu komunitas pengguna akhir pada dasarnya beroperasi lebih baik, menulis laporan dengan lebih baik, dan sebagainya. Jadi, sejarah adalah sesuatu yang sangat bagus untuk dimiliki. Dan salah satu hal yang ingin saya tunjukkan adalah bahwa Anda dapat melihat waktu nyata hingga empat minggu dan kemudian Anda dapat dengan mudah memperbesar rentang waktu yang diinginkan dan kemudian Anda dapat mengekspos aktivitas mengemudi yang mendasarinya. Hanya dengan memiliki visibilitas itu adalah sesuatu yang sangat membantu untuk mengetahui kemacetan yang muncul.

Dez Blanchfield: Anda menyebutkan itu multi-pengguna, setelah itu digunakan, dan saya cukup terkesan dengan fakta bahwa itu tanpa agen dan efektif tanpa sentuhan dalam banyak hal. Apakah normal untuk satu penyebaran alat Anda kemudian tersedia untuk semua orang dari pusat operasi jaringan di NOC menonton infrastruktur inti yang mendukung cluster sampai ke tim aplikasi dan pengembangan? Apakah itu norma dan Anda menyebarkan sekali dan mereka akan membagikannya, atau apakah Anda mengantisipasi orang mungkin memiliki model contoh melihat berbagai bagian tumpukan? Seperti apa itu?

Bill Ellis: Jadi, tim dasar biasanya akan memiliki minat yang sangat kuat pada dasar-dasar teknologi tentang apa yang terjadi di SAP. Jelas ada beberapa tim yang akan mendukung seluruh lanskap. Potongan HANA hanya fokus pada hal itu. Saya hanya akan default ke tim berbasis SAP sebagai konsumen utama informasi.

Dez Blanchfield: Benar. Namun, ini mengejutkan bagi saya bahwa jika saya memiliki tim pengembangan atau bahkan tidak hanya pada level kode, tetapi jika saya memiliki tim ilmuwan atau analis data yang melakukan pekerjaan analitis pada set data di sana, terutama mengingat bahwa ada dorongan signifikan terhadap sains data yang diterapkan pada segala sesuatu di dalam organisasi sekarang, dalam pikiran saya - dan perbaiki saya jika saya salah - menurut saya ini akan sangat menarik bagi mereka juga, karena dalam banyak hal satu Salah satu hal serius yang dapat Anda lakukan di lingkungan data warehouse adalah melepaskan ilmuwan data di atasnya dan memungkinkannya untuk mulai melakukan permintaan ad hoc. Pernahkah Anda memiliki contoh hal semacam itu terjadi di mana toko menelepon Anda dan berkata, "Kami telah melemparkan tim ilmu data pada hal itu, itu benar-benar menyakitkan, apa yang bisa kami lakukan untuk mereka versus apa yang kami lakukan hanya dalam pemantauan dan pengelolaan operasional tradisional? ”Apakah itu suatu hal?

Bill Ellis: Ya, saya akan sedikit mengubah ini dan memotong jawaban saya adalah bahwa, melihat kinerja, menjadi sadar kinerja dalam mengembangkan produksi QA, Anda tahu, semakin cepat Anda menyimpan, semakin sedikit masalah, semakin sedikit kejutan yang Anda miliki. Jadi, tentu saja.

Dez Blanchfield: Setelah itu, banyak alat yang pernah saya alami - dan saya yakin Robin akan setuju - banyak alat di sini, jika Anda punya RDBMS besar, Anda perlu sangat tinggi- DBA yang terampil, berpengetahuan luas, dan berpengalaman. Beberapa persyaratan infrastruktur dan platform yang muncul dengan SAP HANA karena saat ini didukung pada distribusi tertentu yang menyelaraskan dari perangkat keras tertentu dan sebagainya, sesuai dengan pengetahuan saya. Anda tahu, ada orang-orang dengan pengalaman puluhan tahun yang tidak sama. Apa yang saya lihat adalah bahwa itu belum tentu persyaratan dengan alat ini. Menurut saya, Anda dapat menggunakan alat Anda dan memberikannya ke beberapa wajah yang cukup baru dan memberi mereka kekuatan untuk segera menemukan hal-hal yang tidak berkinerja baik. Apakah ini masalahnya bahwa ada kurva belajar yang cukup singkat untuk mempercepat dengan ini dan mendapatkan nilai dari penerapannya? Anda tahu, pengertian umum saya adalah bahwa Anda tidak perlu memiliki 20 tahun pengalaman mengendarai alat untuk segera melihat nilainya. Apakah Anda setuju itu masalahnya?

Bill Ellis: Oh, tentu saja, dan menurut Anda, saya pikir banyak keberhasilan penyebaran benar-benar tergantung pada perencanaan dan perancangan lingkungan SAP HANA. Dan tidak diragukan lagi ada banyak kerumitan, banyak teknologi yang dibangun, tetapi kemudian hanya untuk memantau pola penggunaan dari apa yang terjadi. Jadi, meskipun lebih kompleks, dengan cara itu dikemas dan agak disederhanakan. Itu sangat buruk.

Dez Blanchfield: Ya, jadi sebelum saya kembali ke Eric, karena saya tahu dia punya beberapa pertanyaan, terutama dari beberapa pertanyaan yang muncul melalui tanya jawab yang tampak menarik, dan saya ingin mendengar jawabannya. Perjalanan tradisional untuk seseorang- Anda sebutkan sebelumnya bahwa Anda bisa mendapatkannya, Anda dapat mengunduhnya dan mencobanya. Bisakah Anda meringkasnya dengan cepat untuk orang-orang yang mendengarkan hari ini atau orang-orang yang mungkin akan mengulangnya nanti? Apa dua atau tiga langkah cepat untuk mendapatkan salinan dan menyebarkannya serta mencobanya di lingkungan mereka sebelum mereka membelinya? Seperti apa itu? Apa langkah-langkahnya?

Bill Ellis: Ya. Jadi, IDERA.com dan langsung ke Produk dan Anda akan melihat Analisis Beban Kerja untuk SAP HANA. Ada halaman unduhan. Saya pikir mereka akan meminta Anda untuk beberapa informasi kontak dan produk hanya dikemas dengan kunci lisensi sehingga Anda dapat menginstalnya dengan Setup.exe dan hanya mendapatkan bergulir, saya pikir, sangat cepat.

Dez Blanchfield: Jadi, mereka dapat pergi ke situs web Anda, mereka dapat mengunduhnya. Saya ingat melihatnya beberapa waktu yang lalu dan saya memeriksa dua kali semalam, Anda dapat meminta demo, dari memori, di mana seseorang di tim Anda akan, semacam, memandu Anda melewatinya? Tetapi Anda benar-benar dapat mengunduhnya secara gratis dan menggunakannya secara lokal di lingkungan Anda sendiri, di waktu Anda sendiri, bukan?

Bill Ellis: Ya.

Dez Blanchfield: Luar Biasa. Yah saya pikir, lebih dari segalanya, itu mungkin hal yang secara pribadi saya sarankan untuk dilakukan orang, adalah mengambil salinan dari situs web, mengambil beberapa dokumentasi di sana karena saya tahu ada banyak konten bagus di sana untuk melakukan itu dengan, dan coba saja. Letakkan di lingkungan Anda dan lihat apa yang Anda temukan. Saya menduga bahwa begitu Anda melihat di balik tenda dengan lingkungan SAP HANA Anda dengan alat IDERA Anda akan menemukan hal-hal yang sebenarnya tidak Anda sadari ada di sana.

Dengar, terima kasih banyak untuk itu dan terima kasih untuk waktunya hanya untuk tanya jawab dengan Robin dan aku. Eric, aku akan menyampaikan kepadamu karena aku tahu bahwa beberapa tanya jawab datang dari para hadirin kita juga.

Eric Kavanagh: Ya, hanya yang sangat cepat di sini. Jadi, salah satu peserta memberikan komentar yang sangat baik di sini hanya berbicara tentang bagaimana hal-hal berubah. Mengatakan di masa lalu, memori tersedak, melambat karena paging yang sering, saat ini CPU tersedak dengan terlalu banyak data dalam memori. Anda tahu, ada masalah jaringan. Itu akan selalu menjadi target yang bergerak, bukan? Apa yang Anda lihat sebagai lintasan akhir-akhir ini dalam hal di mana kemacetan akan terjadi dan di mana Anda akan perlu memusatkan perhatian Anda?

Bill Ellis: Ya. Sampai Anda mengukur, sulit untuk diketahui. Salah satu hal tentang pernyataan SQL adalah mereka akan menjadi pendorong konsumsi sumber daya. Jadi jika Anda ingin, seperti, konsumsi memori yang besar atau konsumsi CPU, Anda akan dapat mengetahui aktivitas apa yang menyebabkan konsumsi sumber daya tersebut. Sekarang, Anda tidak perlu ingin membunuhnya, tetapi Anda juga ingin menyadarinya dan, semacam, apa yang terjadi, seberapa sering itu terjadi, dan sebagainya. Kami, jenis, masih baru dalam hal menangani seluruh rangkaian atau buku resep tanggapan untuk keadaan yang berbeda. Jadi, ini adalah pertanyaan dan waktu yang tepat. Kami akan memiliki lebih banyak informasi seiring berjalannya waktu.

Eric Kavanagh: Itu dia. Nah, kalian ada di tempat yang sangat menarik. Saya pikir Anda akan melihat banyak kegiatan dalam beberapa bulan mendatang dan beberapa tahun mendatang karena saya tahu bahwa SAP, seperti yang Anda sarankan dalam panggilan konten kami, telah memberikan jalan panjang yang menyenangkan bagi orang-orang untuk melakukan transisi ke HANA. Namun demikian, jalan itu memang memiliki akhir dan pada titik tertentu orang harus membuat beberapa keputusan serius, jadi semakin cepat semakin baik, kan?

Bill Ellis: Tentu saja.

Eric Kavanagh: Baiklah, kita sudah menghabiskan satu jam lagi di sini di Hot Technologies. Anda dapat menemukan informasi online, insideanalysis.com, juga techopedia.com. Fokus pada situs itu untuk banyak informasi menarik, termasuk daftar semua arsip webcast kami yang lalu. Tetapi teman-teman, terima kasih banyak untuk Anda semua di luar sana, kepada teman-teman kami di IDERA, kepada Robin dan tentu saja, Dez. Dan kami akan menyusul Anda minggu depan, kawan. Sekali lagi terima kasih atas waktu dan perhatian Anda. Hati hati. Sampai jumpa.

Ke masa depan: on-ramp untuk komputasi dalam memori