Saat AOS 5.18 rilis, Prism dikirimkan secara terpisah dari AOS, meningkatkan kecepatan produk dan fleksibilitas bagi pelanggan. Nutanix juga telah memperkenalkan tingkatan lisensi baru, Prism Ultimate, yang memungkinkan TI untuk melayani para engineer dan pengembang dengan ketangkasan yang lebih baik. Sebagai bagian dari transisi ini, lisensi Prism sekarang menyertakan tingkatan Starter, Pro, dan Ultimate. Prism Starter adalah sekumpulan kemampuan manajemen infrastruktur yang selalu disertakan dengan setiap lisensi AOS. Prism Pro telah eksis bertahun-tahun dan terus bertambah dan disempurnakan. Prism Ultimate berisi serangkaian kemampuan baru yang dirancang khusus untuk operasi teknik dan pengembangan. Klarifikasi Singkat tentang Prism Central dan Prism Element Prism dapat diakses melalui salah satu dari dua konsol: Prism Element (PE) atau Prism Central (PC), keduanya tersedia untuk pelanggan Nutanix AOS tanpa biaya lisensi tambahan. PE tertanam di setiap cluster AOS sebagai bagian dari Controller Virtual Machine (CVM) dan dapat digunakan untuk mengelola infrastruktur dan VM cluster. PC dijalankan sebagai layanan terpisah, baik sebagai VM tunggal atau sebagai cluster VM (untuk toleransi kesalahan) dan dapat digunakan untuk mengelola semua cluster AOS Anda dari satu interface. PC berkomunikasi dengan setiap cluster dengan didaftarkan oleh instance PE yang disebarkan bersama dengan cluster. PC juga merupakan tempat pengiriman kemampuan bertingkat Pro dan Ultimate. Memperkenalkan Prism Ultimate Sebuah penawaran baru untuk menghadirkan peningkatan infrastruktur dan manajemen operasi untuk Nutanix, tingkatan Ultimate Prism memungkinkan TI untuk melayani para insinyur dan pengembang dengan tambahan kecepatan. Selain fungsionalitas yang saat ini termasuk dalam tingkat Pro Prism, Prism Ultimate menambahkan wawasan aplikasi untuk pemecahan masalah yang ditargetkan dari kemacetan infrastruktur terkait aplikasi. Seperti yang diilustrasikan dalam tabel di Gambar 4, aplikasi pertama yang didukung adalah SQL Server, dengan beban kerja tambahan yang akan dirilis di masa mendatang. Tingkat Ultimate akan mendukung kemampuan automasi tambahan, serta integrasi dengan Xi Beam untuk memberi informasi yang jelas tentang pengukuran biaya untuk sumber daya di lokasi. Fitur untuk anggaran dan tagihan balik yang didukung oleh Beam Services ini membantu mendorong upaya efisiensi yang praktis dan di seluruh perusahaan dalam organisasi. Rilis PC Terbaru Rilis PC independen pertama adalah 2020.7, dirilis pada Juli 2020. Selain mengaktifkan rilis independen, PC 2020.7 menambahkan right-click support pada halaman Browser Entitas PC untuk alur kerja VM dan manajemen entitas yang efisien. PC 2020.8 dikirimkan pada bulan Agustus, dalam jangka waktu yang sama dengan AOS 5.18, dan mencakup peningkatan umum pada kinerja dan daya tanggap PC serta serangkaian kemampuan baru. Peningkatan X-Play PC 2020.8 mencakup satu set penyempurnaan X-Play baru, memperluas kemampuan automasi tugas tanpa kode dari Prism. Ini termasuk eksekusi alur kerja bersyarat, tindakan penguraian data untuk mengurai informasi tertentu dari string, pedoman portabilitas, dan kemampuan untuk menambahkan wait actions dan penyempurnaan ke pemicu waktu. Penyempurnaan baru ini bersama-sama memungkinkan Anda mengotomatiskan alur kerja yang lebih canggih dengan fleksibilitas yang lebih besar. Session Dasbor Analisis Dasbor Analisis memungkinkan pembuatan bagan yang dapat secara dinamis memantau sejumlah metrik kinerja, dari seluruh klaster hingga VM tertentu, serta cara kerja bagian dalam komponen AOS. PC 2020.8 memperkenalkan konsep Session ke dasbor Analisis untuk menyederhanakan troubleshooting terutama untuk lingkungan besar dengan banyak administrator. Para administrator dapat membuat Session dan menambahkan bagan dan metrik untuk memecahkan masalah tertentu, dan daftar Session dicantumkan di dasbor Session baru. Kebijakan Pengecualian VM Prism menggunakan algoritma pembelajaran mesin untuk mendeteksi anomali dalam kinerja pemanfaatan VM dan untuk mengidentifikasi VM yang berukuran atau dikonfigurasi secara tidak efisien. Prism dapat membuat potensi masalah agar menjadi perhatian administrator dengan cepat dan otomatis. PC 2020.8 memperkenalkan dasbor terbaru Operation Policy dari tempat Anda dapat menerapkan kebijakan pengecualian menjadi VM yang tidak ingin Anda evaluasi untuk deteksi anomali atau pengukuran inefisiensi. Hal ini memungkinkan administrator untuk “menimpa AI” untuk aplikasi yang ukurannya sengaja dibuat atau untuk layanan yang diketahui bekerja dengan cara yang tampak anomali tanpa keterangan yang lebih dalam tentang cara kerja bagian dalamnya. Visibilitas SQL Server PC 2020.8 menyertakan dasbor Monitoring Integrations terbaru di mana Anda dapat mengumpulkan aplikasi metrik untuk aplikasi dengan integrasi ke dalam Prism, memperluas kemampuan Prism di luar infrastruktur ke dalam aplikasi monitoring. Microsoft SQL Server adalah aplikasi pertama yang terintegrasi ke dalam dasbor Monitoring Integrations, dengan banyak lagi yang akan rilis di waktu mendatang. Visibilitas tambahan ke dalam database kueri dan metrik ini, jika digabungkan dengan pembelajaran perilaku Prism dan deteksi anomali, dapat sangat mengurangi waktu analisa sumber masalah untuk isu layanan. Application Discovery Support PC 2020.8 menyertakan dasbor Application Discovery baru dari mana Anda dapat mencari kluster yang dipilih untuk aplikasi yang ada, mengumpulkan dan menganalisis data aplikasi yang ditemukan, dan menerbitkan data tersebut ke database internal. Basis data dapat diakses melalui Prism API. Penemuan tanpa agen memungkinkan penemuan aplikasi secara real-time, memberikan pemahaman yang lebih baik tentang tumpukan penuh aplikasi yang berjalan dalam infrastruktur Anda. Manajemen biaya PC 2020.8 menghadirkan kemampuan tata kelola biaya Nutanix Beam ke PC, memungkinkan Anda untuk mengelola dan menganalisis biaya lingkungan Nutanix Anda dari dalam Prism. Sekarang pengguna Prism memiliki visibilitas out-of-the-box untuk unit biaya VM dan dapat menggunakan laporan tagihan balik untuk unit bisnis dan biaya pusat. Dengan peringatan anggaran otomatis dan proyeksi algoritmik, melacak pengeluaran infrastruktur tidak pernah semudah ini. Tertarik menggunakan Nutanix? Silakan hubungi product specialist kami azhar.prabu@ilogo.co.id. Tulisan ini diterjemahkan dari sini.
Category: Blog
Data Loss Prevention Palo Alto Networks
Jaringan tanpa batas di era ‘Cloud’ telah membuat organisasi menyadari betapa mudahnya data keluar dari jaringan keamanan perusahaan yang (seharusnya) tidak dapat ditembus dan jatuh ke tangan pihak yang tidak bertanggung jawab. Saat ini setiap bisnis memiliki kepentingan untuk melindungi reputasinya dari kemungkinan menjadi sasaran pencurian data. Karena itu, setiap bisnis mempunyai tanggung jawab besar untuk mengambil tindakan tegas dalam melindungi data sensitif yang mampu mengidentifikasi pribadi karyawan dan pelanggan atau memberikan rahasia perusahaan. Perusahaan umumnya mengandalkan pendekatan dua cabang untuk keamanan data: Menghentikan penyerang menyusup ke jaringan dan mencuri data, dan Membuat solusi yang aman dengan pencegahanan kehilangan data/ data lose prevention (DLP) untuk melindungi data dari yang disengaja maupun yang tidak disengaja. Terbatasnya Solusi Pencegahan Kehilangan Data di Pasaran Sebagian besar perusahaan memiliki akses ke dua kategori besar solusi perlindungan data, yaitu data lose prevention (DLP) tradisional dan DLP yang tertanam di cloud. Dalam hal kapabilitas, cakupan, biaya, dan implementasi, Palo Alto Networks yakin kedua opsi tersebut gagal dan memiliki keterbatasan dalam hal tertentu. Pertama, sebagian besar solusi pencegahan kehilangan data ini tidak berlaku untuk semua segmen perusahaan karena dirancang dengan mempertimbangkan kebutuhan perusahaan besar. Jika Anda mempertimbangkan solusi DLP tradisional, sebagian besar tidak dirancang secara sederhana. Mereka tidak berkembang dan menggunakan teknologi bolt-on, pada akhirnya akan memaksa tim keamanan TI untuk memasang infrastruktur baru. Belum lagi CapEx dan OpEx yang tinggi menghasilkan total biaya kepemilikan (TCO) yang sangat tinggi. Opsi Cloud embedded DLP menawarkan TCO yang lebih baik tetapi hanya memberikan perlindungan parsial. Hal ini terjadi karena untuk mencakup setiap titik kontrol, DLP yang disematkan memerlukan dua rangkaian kebijakan yang menggunakan setidaknya dua solusi untuk memastikan cakupan penuh. Pikirkan tentang kerumitan administratif yang ditimbulkannya, dengan beberapa konsol manajemen, bahasa kebijakan, dan sistem klasifikasi data. Dengan demikian, sampai saat ini kedua solusi data loss prevention (DLP) yang telah tersedia di pasaran belum siap untuk melindungi mobilitas tenaga kerja dan lanskap cloud yang terus berkembang. Saatnya Memikirkan Ulang dan Menata Ulang Data Loss Prevention Palo Alto Networks terus berusaha memberikan solusi keamanan terbaik yang dapat membantu memenuhi tanggung jawab keamanan Anda. Palo Alto Networks adalah pemimpin global keamanan dunia maya dalam Firewall Next Generation. Hal itu menjadikannya pemimpin dalam sistem pencegahan intrusi (IPS) terlampir — dan juga bertujuan untuk memimpin industri dengan pendekatan baru terhadap pencegahan kehilangan data. Visi Palo Alto Networks adalah menghadirkan pendekatan yang mampu mengubah secara menyeluruh, modern, dan sederhana untuk perlindungan data, privasi, dan penyesuaian ke pasar. Satu-satunya yang memberikan ketenangan pikiran dengan keamanan yang kokoh. Palo Alto Networks telah berinovasi pada generasi baru teknologi pencegahan kehilangan data yang dapat menyesuaikan dengan kebutuhan yang terus berkembang dari perusahaan berbasis cloud. Palo Alto secara nyata menghilangkan batasan yang dimiliki DLP tradisional dan solusi DLP cloud-based yang saat ini tersedia di pasar. Mari Pikirkan Kembali Pencegahan Kehilangan Data Kita setuju bahwa model standar keamanan jaringan – yang memberlakukan kebijakan keamanan pada jaringan perangkat keras- sangat penting untuk melindungi semua perusahaan dari pelanggaran data, mengingat bahwa hampir semua data dan aplikasi terhubung ke jaringan. Yang tidak kalah pentingnya adalah memanfaatkan model security cloud agar secara efektif melindungi data yang disimpan di lingkungan public cloud seperti bucket AWS S3; dan, pemindahan data dalam aplikasi berbasis SaaS seperti Salesforce, Office 365, G-Suite, Box, dan banyak lainnya. Sebagai penyedia keamanan jaringan berbasis cloud yang terkemuka di industri, Palo Alto yakin organisasi yang menggunakan cloud saat ini membutuhkan solusi perlindungan data yang terintegrasi dengan kedua model untuk menawarkan cakupan terluas. Inilah sebabnya mengapa ide Palo Alto Networks di balik DLP modern adalah tentang layanan penyatuan cloud yang terintegrasi secara native dengan infrastruktur keamanan jaringan standar Anda atau dikirimkan dengan mulus melalui SASE untuk melindungi data perusahaan yang sensitif di mana saja. Perlindungan data yang menggunakan pendekatan lengkap ini akan mencakup jaringan fisik dan virtual serta beban kerja di cloud — termasuk SaaS saat istirahat, SaaS inline, dan IaaS native cloud — dan data setiap pengguna, baik di kampus, di lokasi cabang, atau bekerja dari jarak jauh . Gambar 1: Pandangan tentang Pendekatan Lengkap Palo Alto Networks untuk DLP Perusahaan Palo Alto Networks untuk Data Loss Prevention/ Pencegahan Kehilangan Data Palo Alto Networks memiliki lebih banyak hal untuk dibagikan tentang kemungkinan masuknya Palo Alto Networks ke pasar DLP dengan solusi DLP yang akan tersedia di semua saluran — firewall fisik dan perangkat lunak, Prisma Access, dan Prisma Cloud. Dalam beberapa hari dari sekarang, Palo Alto Networks akan membahas secara mendetail bagaimana Anda bisa mendapatkan keuntungan dari kesederhanaan inovasi pencegahan kehilangan data Palo Alto Networks sebagai layanan yang diaktifkan dengan lisensi sederhana yang tidak memerlukan investasi infrastruktur tambahan. Pikirkan tentang TCO terendah yang dapat Anda alami tanpa harus puas dengan keamanan data rata-rata. Keamanan data terbaik di kelasnya, tingkat Enterprise bagi Palo Alto Networks identik dengan penemuan dan perlindungan akurat data sensitif menggunakan klasifikasi otomatis, konteks, dan pembelajaran mesin. Jika Anda tertarik dengan Palo Alto Networks silakan hubungi product specialist kami di azhar.prabu@ilogo.co.id. Tulisan ini telah dimuat sebelumnya di sini.
SSD TLC vs QLC, Apa perbedaannya?
Artikel ini sebelumnya telah terbit di Synology SSD personal dan perusahaan adalah dua kategori besar yang mencakup berbagai profil kinerja. Karena perbedaan cara vendor menguji dan menilai produk mereka, pembelian berdasarkan nomor yang diiklankan tidaklah cukup. Dalam postingan hari ini, kita akan mempelajari bagaimana jenis NAND memengaruhi performa secara signifikan, dan mengapa hal ini penting untuk pertimbangan pembelian Anda berikutnya. JENIS FLASH NAND Data memori flash NAND direpresentasikan sebagai sinyal digital (bit) dan disimpan pada sel memori flash NAND. Jumlah bit yang disimpan di sel menentukan jenis memori flash yang digunakan. Memori flash sel tingkat tunggal (SLC) berisi satu bit per sel. Multi-level cell (MLC) menggandakan kapasitas dengan dua bit per sel. Triple Level Cell (TLC) berisi tiga bit per sel, sedangkan Quad-Level Cell (QLC) berisi empat bit per sel yang memungkinkan kapasitas memori flash SLC empat kali lipat. Sejak SSD memasuki pasar, kapasitas telah tumbuh semakin besar. Tren industri saat ini adalah mengurangi biaya sekaligus meningkatkan kapasitas penyimpanan. Hal ini menyebabkan pengembangan sel memori yang lebih padat sementara secara perlahan mendekati (belum sampai) biaya hard drive tradisional. Mengejar drive yang lebih murah dan lebih besar telah menyebabkan penurunan SSD berbasis SLC dan MLC. TLC sekarang menjadi arus utama dan memegang pangsa pasar terbesar. QLC masih relatif baru, tetapi kami berharap biayanya yang rendah akan menarik pembeli, terutama karena QLC sering disebut sebagai pengganti HDD. Sel memori NAND hanya memiliki jumlah siklus (siklus tulis) program-erase (P / E) yang terbatas sebelum habis. Mempelajari detail berada di luar cakupan posting ini, jadi ketahuilah bahwa sel dengan kepadatan yang lebih tinggi memiliki daya tahan yang lebih sedikit daripada yang kepadatan rendah, mis. MLC biasanya akan bertahan lebih lama dari TLC. Meskipun Anda umumnya dapat mengikuti bahwa MLC akan lebih cepat daripada TLC, dan TLC akan lebih cepat daripada QLC, SSD baru berisi beberapa metode pengoptimalan yang membantu menutupi atau meniadakan kekurangan NAND yang lebih lambat. Contoh yang bagus dari ini adalah “SLC-caching”, di mana area drive yang tidak digunakan akan bertindak sebagai pseudo-SLC NAND. Hal ini memungkinkan kinerja yang sangat baik untuk beban kerja tipe burst yang lebih pendek, seperti yang sering terjadi pada sebagian besar PC dan lingkungan komputasi klien. Ada Dorongan Tidak seperti pasar HDD dewasa, saat berbelanja SSD Anda akan menemukan cukup merek dan model untuk memberi Anda pilihan kecemasan. Apa yang akan kita lihat hari ini adalah bahwa meskipun TLC konsumen dan bahkan hard disk QLC sering mengklaim angka kinerja yang mengesankan di permukaan, ketika diperiksa dalam situasi praktis, profil kinerja sebenarnya dari hard disk ini akan terungkap. Kami memilih dua hard disk yang umumnya tersedia untuk setiap grup segmen target, dengan membandingkan total enam hard disk. Performa yang luar biasa Kami menggunakan CrystalDiskMark, utilitas populer untuk mengukur kinerja drive. Kedalaman antrian (Q) dan thread (T) yang lebih tinggi biasanya menghasilkan performa yang lebih tinggi, tetapi sebagian besar beban kerja konsumen hanya melibatkan kedalaman antrian yang rendah. Infrastruktur TI yang melibatkan mesin virtual dan penyimpanan DB biasanya akan melihat kedalaman antrian dan utas yang lebih tinggi. Untuk pengujian transfer file, kami akan menggunakan Pengujian Sistem AJA, alat yang dirancang terutama untuk pembuat konten guna memverifikasi bahwa sistem penyimpanan mereka dapat mendukung penyerapan aliran resolusi tinggi. Kami mengaturnya untuk menulis file 64GB ke sistem dan kemudian membacanya kembali. Ini masih merupakan beban kerja yang ringan tetapi akan mewakili pengguna yang memindahkan file besar. Pada pengujian singkat tipe burst, semua grup drive bekerja dengan sangat baik, seperti yang diharapkan untuk jenis benchmark sintetis ini. Berdasarkan angka kinerja di sini, Anda akan dimaafkan jika menyimpulkan bahwa Anda tidak akan melihat perbedaan dalam penggunaan di dunia nyata. Ukuran cache SLC yang cukup berarti drive QLC yang lebih lambat memiliki performa yang bagus. Performa pada kapasitas 65% Tes sebelumnya dilakukan saat drive kosong. Test tersebut memberi hard disk dengan cache SLC dinamis banyak ruang untuk bekerja. Kami mengisi setiap drive hingga 65%, memberi mereka beberapa menit untuk istirahat, lalu melanjutkan menggunakan Pengujian Sistem AJA untuk menghasilkan penulisan 64 GB yang sama, lalu membaca beban kerja. Dibandingkan saat benar-benar kosong, drive perusahaan kami bekerja dalam batas kesalahan. Drive TLC konsumen sedikit menurun dalam kinerja baca, sambil tetap mempertahankan kecepatan tulis yang baik, tidak ada yang terlihat dalam penggunaan sehari-hari biasa. Tak perlu dikatakan bahwa regresi kinerja grup QLC di sini signifikan. Test Full Drive Kami menggunakan uji pengisian seluruh drive untuk mendapatkan kinerja drive yang stabil. Pengujian ini juga menunjukkan beban kerja hard disk saat digunakan sebagai cache SSD pada NAS yang sibuk, karena beban tersebut akan terus diisi dengan data yang baru diakses. Pengujian ini akan menghabiskan mekanisme cache SLC apa pun pada drive karena tidak memberikan waktu untuk memulihkannya. Dalam grafik, sumbu horizontal mewakili persentase kapasitas penyimpanan yang ditulis. Yang pertama adalah kecepatan rata-rata mentah untuk grup kami. Yang kedua menunjukkan kecepatan sebagai persentase maksimum dalam tes ini. Seperti yang diharapkan, hard disk yang ditujukan untuk lingkungan perusahaan paling bersinar di sini. Drive TLC konsumen dimulai dengan cepat, tetapi dengan cepat macet saat mereka menghabiskan cache mereka. Drive QLC sebenarnya dikonfigurasi dengan cache yang cukup besar, memungkinkannya tetap cepat lebih lama. Namun, alasan di balik ini adalah untuk menutupi kecepatan tulis yang sangat buruk setelah cache penuh dan NAND ditulis secara langsung. Di sini, kami melihat kecepatan tulis berurutan yang lebih buruk daripada HDD. Di sisi lain, meskipun hard disk perusahaan yang kami gunakan saat ini sebagian besar merupakan model level awal, dan dinilai untuk beban kerja intensif baca, hard disk tersebut masih dapat memberikan kinerja berkelanjutan yang stabil. Model kelas atas (pricier) biasanya mendukung kecepatan tulis dan peringkat DWPD yang lebih tinggi. Membungkus semuanya Selalu penting untuk memeriksa secara menyeluruh angka kinerja yang diiklankan untuk SSD. Metode dan kondisi pengujian berbeda antara produsen, dan untuk drive konsumen, seringkali hanya dalam beban kerja tipe burst. Meski begitu, SDD konsumen masih merupakan upgrade yang hemat biaya untuk mempercepat penyimpanan PC atau NAS Anda secara signifikan dibandingkan dengan HDD. Namun, perhatikan bahwa begitu Anda mulai menerapkan beban kerja yang lebih berat dan lebih lama, kinerjanya akan menurun, terkadang secara signifikan. Drive QLC sangat bagus…
Bagaimana Cara Menjaga Data dari Bencana Alam
Musim hujan telah tiba dan adanya kemungkinan bencana alam, sangat penting bagi perusahaan untuk memprioritaskan rencana penanggulangan bencana. Perusahaan yang gagal membuat rencana penanggulangan untuk peralatan elektronik/TI dan data penting mereka, akan dipastikan mengalami kerugian finansial yang serius ketika terjadi keadaan darurat. Pada tahun 2018, IDC (international data corporation) sebuah firma analisa data kenamaan dunia memberikan laporan berjudul “The State of IT Resilience” atau laporan terkini mengenai ketahanan IT. Pada dasarnya isi laporan itu memperingatkan pebisnis untuk tidak jatuh ke dalam jebakan yang menjerat banyak perusahaan setiap tahun saat keadaan darurat terjadi. Perusahaan-perusahaan ini memandang kesiapan pemulihan bencana atau Disaster Recovery (DR) sebagai asuransi dan biaya tambahan yang kemungkinan besar akan tidak begitu berguna. Pendekatan pemulihan bencana itu sudah tidak memadai untuk bisnis digital saat ini. Laporan tersebut menjelaskan bahwa, jika alat dan inisiatif disaster recovery (DR) dipandang sebagai pemborosan dan bukan sebagai pendorong bisnis. Dengan demikian, cloud dan transformasi digital (DX) organisasi akan mengalami tingkat kegagalan yang lebih tinggi. Penelitian lain juga memperkirakan bahwa sebanyak setengah dari semua organisasi tidak dapat bertahan dalam bencana. Penelitian tersebut juga menemukan bahwa banyak bisnis tidak melindungi datanya dengan benar, tidak menguji lingkungan mereka untuk disaster recovery, atau bahkan tidak menerapkan proses disaster recovery otomatis. Caroline Seymour, Vice President pemasaran produk di Zerto, mengatakan kepada TechNewsWorld, “Setelah tahun 2020 yang sudah penuh tekanan karena pandemi COVID-19, para ahli cuaca memperkirakan jumlah badai di atas rata-rata musim ini. Sayangnya, banyak bisnis mungkin tidak siap menghadapi badai tersebut dan dapat mengalami kehilangan data permanen jika mereka tidak mempersiapkan dengan baik dari perspektif TI.” Untuk menghindari jatuhnya korban, Ia merekomendasikan untuk mempertahankan operasional bisnis yang penting, menjaga data yang berharga dan memastikan ketahanan TI dengan memiliki disaster recovery yang memadai di tempat yang terdampak dengan cepat. Selain menerapkan dan menguji teknologi pemulihan bencana berbasis cloud, tim TI perlu mempraktikkan rencana disaster recovery (DR) mereka untuk memahami apa yang berfungsi dengan baik dan di mana ada peluang untuk peningkatan, kata Seymour. Konsekuensi dari Ketidaksiapan Ketahanan TI – penting untuk disaster recovery – dapat diukur dari kemampuan organisasi untuk melindungi data selama peristiwa mengganggu yang direncanakan, bereaksi secara efektif terhadap peristiwa yang tidak direncanakan, dan mempercepat inisiatif bisnis yang berorientasi pada data. Ini mencakup pemulihan bencana tradisional dan alat cadangan, juga menggabungkan analisa canggih dan kemampuan keamanan yang diperlukan untuk kesuksesan bisnis digital apa pun di abad ke-21. Penelitian IDC menemukan bahwa banyak organisasi melihat bentuk gangguan baru, seperti ransomware, menyebabkan downtime yang cukup besar. Berikut adalah beberapa temuan penting dari penelitian pemulihan bencana IDC: Lebih dari separuh responden saat ini melakukan proyek TI atau transformasi digital dan melihat ketahanan TI sebagai fondasi. Tetapi beberapa responden percaya bahwa strategi ketahanan TI mereka telah dioptimalkan. Sebagian besar organisasi yang disurvei pernah mengalami gangguan bisnis terkait teknologi. Situasi ini mengakibatkan dampak material baik dalam hal biaya pemulihan atau tambahan jam kerja staf, hilangnya pendapatan secara langsung, hilangnya data secara permanen, atau rusaknya reputasi perusahaan. Perlindungan data atau Data Protection (DP) dan pemulihan bencana (DR) adalah prinsip sentral dari inisiatif transformasi digital tetapi mungkin tidak diprioritaskan oleh banyak organisasi. Hanya setengah dari semua aplikasi yang sepenuhnya dicakup oleh strategi DR. Ini menunjukkan terputusnya hubungan di tingkat strategi bisnis mengenai pentingnya perlindungan data dan pemulihan data untuk inisiatif organisasi. Banyak yang Bisa Salah Riset tersebut menemukan bahwa banyak perusahaan bergumul dengan biaya, kompleksitas, dan pengaturan solusi perlindungan data dan pemulihan bencana mereka. Hampir setengah dari responden (45 persen) melaporkan tantangan dengan pemulihan atau keandalan cadangan. Kompleksitas proses pencadangan dan pemulihan juga menjadi tantangan utama bagi 43 persen perusahaan. Faktor-faktor ini memiliki kemungkinan tinggi untuk menunda atau mengganggu inisiatif transformasi TI. Proses kompleksitas itu mendorong sekitar 90 persen dari perusahaan yang berpartisipasi untuk mengejar konvergensi cadangan dan alat DR saat mereka menghilangkan alat yang berlebihan. Hal ini menunjukkan bahwa pengguna semakin melihat fungsi cadangan dan DR bukan sebagai produk tertutup namun sebagai aset pelengkap dari satu-satunya solusi. Peneliti percaya bahwa praktik terbaik untuk pemulihan data perusahaan adalah dengan mendefinisikan arti ketahanan IT di organisasi mereka dan mengembangkan rencana untuk implementasi. Definisi tersebut harus dimulai dengan elemen inti seperti proteksi data, backup dan pemulihan bencana. Perusahaan juga harus memperhitungkan ancaman keamanan yang muncul dan menangani persyaratan semua aplikasi bisnis. Di mana termasuk server lokal atau berbasis cloud publik. Ini tidak boleh menyertakan solusi ketahanan TI satu ukuran untuk semua. Resep Untuk Pemulihan Kesiapsiagaan bencana yang berhasil memerlukan prioritas dan komunikasi. Jennifer Curry, vice president Global Cloud Services menguraikan tiga cara agar perusahaan dapat melindungi data dan informasi mereka sebelum bencana melanda: Langkah pertama: Identifikasi Resiko Bagi banyak organisasi, kehilangan data dan informasi adalah ancaman terbesar. Mulailah dengan mengidentifikasi di mana data mereka disimpan, jika ada salinannya, dan jika demikian, di mana salinan tersebut disimpan (di tempat atau di lokasi terpisah). “Memiliki semua informasi yang disimpan di satu tempat sangat berisiko karena satu bencana alam dapat menghapus segalanya”, katanya. Langkah Kedua: Pikirkan Tentang Pencadangan Di Luar SitusJika sebuah organisasi menyimpan data secara terpisah dari lokasi utamanya, itu adalah separuh pertempuran.”Untuk lebih melindungi aset mereka, perusahaan harus memilih situs cadangan yang berada di wilayah geografis yang berbeda untuk mengurangi kemungkinan kedua lokasi tersebut akan dilumpuhkan oleh satu bencana,” alasannya. Langkah Tiga: Pertimbangkan Solusi Pemulihan Bencana Banyak perusahaan menggunakan penyimpanan cloud sebagai cadangan karena mudah diskalakan dan hemat biaya. Namun, opsi yang lebih kuat adalah disaster recovery as a service atau pemulihan bencana sebagai layanan (DRaaS). “DRaaS pada dasarnya adalah redundansi fasilitas di infrastruktur perusahaan. DRaaS mereplikasi informasi, aplikasi, dan mission-critical data sehingga perusahaan dapat menjaga kelangsungan bisnis saat terjadi bencana alam,” jelas Curry. “Tim TI akan terikat saat terjadi bencana, dan daripada meminta mereka menangani banyak permintaan dari pemangku kepentingan di seluruh organisasi, mereka lebih berhasil jika mereka memiliki daftar aplikasi yang diprioritaskan,” dia menawarkan. INAP memberitahu klien untuk memastikan kelangsungan bisnis yang komprehensif dikembangkan sebelum peristiwa yang menghancurkan terjadi. Ini juga berfungsi sebagai peluang untuk mengidentifikasi risiko dan kesenjangan yang mungkin sering terlewatkan. Menyeimbangkan Resiko Mengelola kehilangan data adalah kasus pengurangan risiko dan konsekuensi. Risiko tidak bisa dan tidak akan pernah mencapai nol, menurut…