Trustworthy AI Microsoft: Mengasah potensi manusia dimulai dengan kepercayaan
Read the English version here.
Seiring dengan kemajuan kecerdasan buatan (artificial intelligence/AI), kita semua memainkan peran untuk merealisasikan dampak positif AI bagi organisasi dan masyarakat di seluruh dunia. Itulah sebabnya, kami berfokus untuk membantu pelanggan menggunakan dan mengembangkan AI yang terpercaya, artinya AI yang aman, melindungi, dan menjunjung tinggi privasi.
Di Microsoft, kami berkomitmen untuk memastikan AI dapat dipercaya (Trustworthy AI) dan mengembangkan teknologi pendukung terdepan di industri. Komitmen dan kapabilitas kami berjalan beriringan untuk memastikan pelanggan serta pengembang (developers) terlindungi di setiap lapisan.
Berangkat dari komitmen kami, hari ini kami mengumumkan kapabilitas produk baru untuk memperkuat keamanan (security), perlindungan (safety), dan privasi (privacy) di sistem AI.
Keamanan. Keamanan adalah prioritas utama kami di Microsoft, dan Secure Future Initiative (SFI) kami yang diperluas menegaskan komitmen perusahaan serta tanggung jawab yang kami miliki untuk membuat pelanggan kami lebih aman. Minggu ini, kami mengumumkan pertama kami yang menyoroti pembaruan di berbagai aspek seperti budaya, tata kelola, teknologi, dan operasi. Hal ini merupakan bagian dari janji kami untuk memprioritaskan keamanan di atas segalanya, dengan dipandu oleh tiga prinsip: aman sejak tahap desain (secure by design), aman secara default (secure by default), dan kegiatan operasional yang aman (secure operations). Selain solusi pihak pertama kami, Microsoft Defender dan Purview, layanan AI kami dilengkapi dengan kontrol keamanan dasar, seperti fungsi bawaan yang membantu mencegah prompt injection dan pelanggaran hak cipta. Berdasarkan hal tersebut, hari ini kami mengumumkan dua kapabilitas baru, yakni:
Evaluasi (Evaluations) di Azure AI Studio untuk mendukung penilaian risiko secara proaktif.
Microsoft 365 Copilot akan menyediakan transparansi pada web query untuk membantu admin dan pengguna lebih memahami bagaimana pencarian web bisa meningkatkan respons Copilot. Kapabilitas ini akan segera hadir.
Kapabilitas keamanan kami sudah digunakan oleh berbagai pelanggan. Cummins, perusahaan berusia 105 tahun yang terkenal akan pembuatan mesin dan pengembangan teknologi energi bersih, beralih ke Microsoft Purview untuk memperkuat keamanan data dan tata kelola dengan mengotomatisasi klasifikasi, penandaan, serta pelabelan data. EPAM Systems, perusahaan software engineering dan konsultan bisnis, menggunakan Microsoft 365 Copilot bagi 300 pengguna berkat perlindungan data yang mereka dapatkan dari Microsoft. J.T. Sodano, Senior Director of IT, menyampaikan bahwa “kami jauh lebih percaya dengan Copilot for Microsoft 365 dibandingkan dengan model bahasa besar (LLM) lainnya, karena kami tahu kebijakan perlindungan informasi dan data yang telah kami konfigurasi di Microsoft Purview berlaku untuk Copilot.”
Perlindungan. Mencakup unsur keamanan dan privasi, prinsip AI yang Bertanggung Jawab (Responsible AI) Microsoft yang dibuat pada tahun 2018, terus memandu cara kami membangun dan mengoperasikan AI secara aman di seluruh perusahaan. Dalam praktiknya, hal ini berarti mengembangkan, menguji, dan memantau sistem untuk menghindari aktivitas yang tidak diinginkan, seperti konten berbahaya, bias, penyalahgunaan, dan risiko lain yang tidak disengaja. Selama bertahun-tahun, kami telah berinvestasi besar dalam membangun struktur tata kelola, kebijakan, alat, dan proses yang diperlukan untuk menjalankan prinsip tersebut, dan mengembangkan serta menerapkan AI secara aman. Di Microsoft, kami berkomitmen untuk membagi pembelajaran kami dalam menjalankan prinsip Responsible AI dengan pelanggan kami. Kami menggunakan praktik terbaik dan pembelajaran yang kami dapatkan untuk memberikan kapabilitas serta alat kepada setiap orang dan organisasi, agar dapat mengembangkan aplikasi AI berstandar tinggi seperti yang terus kami upayakan.
Hari ini, kami mengumumkan kapabilitas baru untuk membantu pelanggan merasakan manfaat AI sembari mengurangi risikonya:
Kapabilitas Koreksi (Correction) di fitur deteksi Groundedness pada Microsoft Azure AI Content Safety membantu memperbaiki halusinasi secara real time sebelum pengguna melihatnya.
Embedded Content Safety, yang memungkinkan pelanggan menyematkan Azure AI Content Safety pada perangkat. Hal ini penting dalam skenario on-device di mana konektivitas cloud mungkin tidak stabil atau tidak tersedia.
Evaluasi baru (New evaluations) di Azure AI Studio untuk membantu pelanggan menilai kualitas dan relevansi output, serta seberapa sering aplikasi AI mereka mengeluarkan output dari materi yang dilindungi.
Protected Material Detection for Code sekarang tersedia dalam mode pratinjau di Azure AI Content Safety, untuk membantu mendeteksi konten dan code yang sudah ada sebelumnya. Fitur ini membantu developer menjelajahi code yang bersumber dari umum (public source code) di repositori GitHub, mendorong kolaborasi dan transparansi, serta memungkinkan pengambilan keputusan yang lebih tepat dalam pemrograman.
Sungguh luar biasa melihat bagaimana pelanggan di berbagai industri sudah menggunakan solusi dari Microsoft untuk mengembangkan aplikasi AI yang lebih aman dan terpercaya. Misalnya, Unity, sebuah platform game 3D, menggunakan layanan Microsoft Azure OpenAI untuk membangun Muse Chat, asisten AI yang mempermudah pengembangan game. Muse Chat menggunakan model penyaringan konten di Azure AI Content Safety untuk memastikan penggunaan perangkat lunak yang bertanggung jawab. Selain itu, ASOS, perusahaan ritel pakaian asal Inggris yang memiliki hampir 900 mitra, menggunakan filter konten bawaan yang sama di Azure AI Content Safety untuk mendukung interaksi berkualitas tinggi melalui aplikasi AI yang membantu pelanggan menemukan outfit baru.
Kami juga melihat dampaknya di bidang pendidikan. New York City Public Schools bermitra dengan Microsoft untuk mengembangkan sistem chat yang aman dan sesuai untuk konteks pendidikan, yang kini sedang diuji coba di berbagai sekolah. Departemen Pendidikan Australia Selatan juga menghadirkan generative AI ke dalam kelas lewat EdChat, mengadalkan infrastruktur yang sama untuk memastikan penggunaan yang aman bagi siswa dan guru.
Privasi. Data merupakan fondasi dari AI. Prioritas Microsoft adalah membantu memastikan data pelanggan terlindungi dan sesuai dengan prinsip privasi utama kami yang mencakup kontrol pengguna, transparansi, serta perlindungan hukum dan regulasi. Untuk itu, hari ini kami mengumumkan:
Confidential inferencing dalam mode pratinjau di model Azure OpenAI Service Whisper, sehingga pelanggan dapat mengembangkan aplikasi generative AI yang mendukung privasi end-to-end dan dapat diverifikasi. Confidential inferencing memastikan data sensitif milik pelanggan tetap aman dan terjaga privasinya selama proses inferensi, yakni ketika model AI yang telah dilatih membuat prediksi atau keputusan berdasarkan data baru. Hal ini sangat penting, terutama bagi industri dengan regulasi ketat, seperti kesehatan, layanan keuangan, ritel, manufaktur, dan energi.
Ketersediaan umum Azure Confidential VM dengan NVIDIA H100 Tensor Core GPU, yang memungkinkan pelanggan mengamankan data di GPU secara langsung. Hal ini melanjutkan solusi confidential computing kami, guna memastikan data pelanggan tetap terenskripsi dan terlindungi dalam lingkungan yang aman, sehingga tidak ada yang dapat mengakses informasi atau sistem tersebut tanpa izin.
Azure OpenAI Data Zones untuk Uni Eropa (EU) dan Amerika Serikat (AS) akan segera hadir dan dibangun pada residensi data yang sudah ada yang disediakan oleh Azure OpenAI Service dengan mempermudah pengelolaan pemrosesan dan penyimpanan data aplikasi generative AI. Fitur baru ini menawarkan fleksibilitas kepada pelanggan untuk meningkatkan skala aplikasi generative AI di semua wilayah Azure dalam satu kawasan, sambil memberikan mereka kontrol atas pemrosesan dan penyimpanan data di dalam EU atau AS .
Kami telah melihat peningkatan minat pelanggan akan confidential computing dan antusiasme terhadap confidential GPU, termasuk dari penyedia keamanan aplikasi F5, yang menggunakan Confidential VM dengan NVIDIA H100 Tensor Core GPU untuk membangun solusi keamanan canggih bertenaga AI, sekaligus memastikan kerahasiaan data yang dianalisis oleh model mereka. Perusahaan perbankan multinasional, Royal Bank of Canada (RBC), juga telah mengintegrasikan Azure confidential computing ke dalam platform mereka sendiri untuk menganalisis data terenskripsi sambil menjaga privasi pelanggan. Lewat ketersediaan umum dari Azure Confidential VM dengan NVIDIA H100 Tensor Core GPU, RBC kini dapat menggunakan alat AI canggih tersebut untuk bekerja lebih efisien dan mengembangkan model AI yang lebih kuat.
Mencapai lebih banyak dengan Trustworthy AI
Kita semua membutuhkan dan menginginkan AI yang dapat dipercaya. Kami telah melihat apa yang mungkin terjadi ketika orang diberdayakan untuk menggunakan AI dalam cara-cara yang terpercaya. Mulai dari memperkaya pengalaman karyawan, menata ulang proses bisnis, mendorong keterlibatan pelanggan, hingga menata kembali kehidupan sehari-hari kita. Dengan kapabilitas baru yang meningkatkan keamanan, perlindungan, dan privasi, kami terus memungkinkan pelanggan menggunakan dan mengembangkan solusi AI terpercaya yang memberdayakan setiap orang dan setiap organisasi di planet ini untuk mencapai lebih banyak. Pada akhirnya, Trustworthy AI mencakup semua yang kami lakukan di Microsoft dan ini sangat penting dalam misi kami untuk membuka peluang, membangun kepercayaan, melindungi hak-hak fundamental, dan mendorong keberlanjutan dalam segala hal yang kami lakukan.
Konten terkait lainnya:
Komitmen
Keamanan: Secure Future Initiative
Privasi: Trust Center
Perlindungan: Responsible AI Principles
Kapabilitas
Keamanan: Security for AI
Privasi: Azure Confidential Computing
Perlindungan: Azure AI Content Safety
###