MIT Sloan Management Review ve Boston Consulting Group’un (BCG) Haziran 2023’te yayınladığı bir rapora göre, Generatif AI (AI) araçları kullanırken çok dikkatli olmak gerekiyor. ChatGPT, DALL-E ve Midjourney gibi Generatif AI araçlarının kurumsal kullanıcıları, kendilerini risklerden korumak için yeterli önlem almıyor.
Rapora göre, kuruluşların %78’i üçüncü taraf Generatif AI araçlarına erişiyor, bunları satın alıyor, lisanslıyor veya başka şekilde kullanıyor. Bazı kuruluşlar, çalışanların Generatif AI araçlarını kullanma şekillerinin bile farkında değil. Bu fenomene “gölge AI” deniyor.
Generatif AI araçları, yanlış kullanıldığında itibar kaybına, düzenleyici yaptırımlara, mali kayba ve davalara yol açabilir. Rapora göre, üçüncü taraf araçlar tüm AI ile ilgili arızaların yarısından fazlasını oluşturuyor.
Peki kuruluşlar bu risklere karşı kendilerini nasıl koruyabilir? Üçüncü taraf araçları titizlikle test ederek başlayabilirler.
Generatif AI araçlarını sorumlu bir şekilde değerlendirme
Generatif AI popülerleştikçe, onu içeren üçüncü taraf araçların sayısı da artıyor. Artık metin, resim, kod, ses, sunum vb. oluşturmak için sayısız AI uygulaması var ve kurumsal kullanıcılar -mühendisler dahil- bu araçları bir AI yardımcı pilotu olarak kullanmak için yaratıcı yollar buluyorlar.
Ancak kaç tanesi araçların güvenli olduğundan emin olmak için zaman ayırıyor? Rapora göre yeterince değil. Rapora göre, üçüncü taraf Generatif AI araçları kullanan şirketlerin %20’si risklerini hiç değerlendirmediği ortaya çıkıyor.
Riskleri değerlendirenler bile kısa kalıyor olabilir. Raporun önemli bulgularından biri, kuruluşların üçüncü taraf Generatif AI araçlarını değerlendirmek için birkaç farklı yöntem kullanması gerektiğidir. Ne kadar çok yöntem kullanırsa, AI arızalarını ortaya çıkarma olasılığı da o kadar yüksek olur.
Rapora göre, generatif AI araçlarını değerlendirmenin birkaç yaklaşımı var:
- Satıcının sorumlu AI uygulamaları
- RAI ilkelerine bağlılığı şart koşan sözleşme dili
- Mümkün olduğunda satıcı ön sertifikası ve denetimleri
- Üçüncü taraf araçların başka bir ürün veya hizmete entegre edildiği durumlarda dahili ürün düzeyinde incelemeler
- Düzenleyici gerekliliklere ve endüstri standartlarına uyum
Genel olarak rapor, üçüncü taraf Generatif AI araçlarının, bir kuruluşun dahili AI araçları ile aynı şekilde ve genel RAI stratejisi doğrultusunda değerlendirilmesi gerektiğini vurguluyor.
Üçüncü taraf Generatif AI araçları, kurumsal kullanımda giderek daha yaygın hale geliyor. Bu araçların risklerini anlamak ve yönetmek, kuruluşlar için kritik önem taşıyor. Rapor, kuruluşların üçüncü taraf Generatif AI araçlarını değerlendirirken aşağıdaki adımları atmalarını öneriyor:
- Risk değerlendirmesinin kapsamlı ve çeşitli olmasını sağlayın.
- Riskleri azaltmak için önlemler alın.
- Riskleri düzenli olarak gözden geçirin.
Bu adımları izleyerek, kuruluşlar üçüncü taraf Generatif AI araçlarının risklerini azaltabilir ve bu araçların güvenli ve sorumlu bir şekilde kullanılmasını sağlayabilirler.