Yapay zekâ (AI) araçlarıyla ilgili tartışmalar yakın zamanda en çok öne çıkan konu haline geldi. Üretkenliği artırma ve zamandan tasarruf etme yetenekleri nedeniyle, birçok çalışan bu araçları günlük iş rutinlerine uyarlamaya başladı. Erginkurban, ChatGPT gibi yenilikçi yapay zekâ araçlarının avantajlarından yararlanmadan önce, çalışanların veri güvenliğini tehlikeye atmadan bu araçlarla nasıl güvenli bir şekilde etkileşim kuracaklarını bilmeleri gerektiğini vurgulayarak önemli bir riske dikkat çekti.
“YAPAY ZEKA KULLANIRKEN VERİ PAYLAŞABİLİRİZ”
Yapay zekâ araçlarının fikir geliştirilmesine, metin parçalarını özetlemeye veya yeniden ifade etmeye, ve bir iş stratejisi için bir temel oluşturmaya yardımcı olabileceğini ifade eden Erginkurban, “Ancak yapay zekayı kullanırken araçlara girdiğimiz verilerin gönder düğmesine bastığımız anda bize ait olmaktan çıktığını unutmamalıyız” dedi.
ChatGPT gibi büyük dil modellerini (LLM’ler) kullanırken temel kaygılardan birisinin, hassas verilerin büyük uluslararası şirketlerle paylaşılması olduğuna dikkat çeken Erginkurban, “Bu modeller, kullanıcı sorgularını etkili bir şekilde yorumlamalarını ve yanıtlamalarını sağlayan çevrimiçi metinlerdir. Ancak bir sohbet robotu ile etkileşime girip bilgi veya yardım istediğimiz her seferde, istemeden de olsa kendimiz veya şirketimiz hakkında veri paylaşabiliriz. Bir sohbet robotu için bir istem yazdığımızda, girilen veriler herkese açık hale gelir. Bu, sohbet robotlarının bu bilgileri temel olarak diğer kullanıcılara yanıt vermek için hemen kullanacağı anlamına gelmez. Ancak LLM sağlayıcısı veya ortakları bu sorgulara erişebilir ve bunları teknolojinin gelecekteki sürümlerine dahil edebilir” ifadelerini kullandı.
“SOHBET GEÇMİŞİNİ KAPATMAK İLK ADIM OLMALI”
ChatGPT’nin arkasındaki kuruluş olan OpenAI, sohbet geçmişini kapatma seçeneğini sunarak kullanıcı verilerinin OpenAI’nin yapay zekâ modellerini eğitmek ve geliştirmek için kullanılmasını engellediğini belirten Erginkurban, “Bu şekilde kullanıcılar verileri üzerinde daha fazla kontrol sahibi oluyor. Çalışanlar ChatGPT gibi araçları kullanmak istiyorlarsa, sohbet geçmişini kapatmak ilk adımları olmalıdır. Sohbet geçmişi kapalı olsa bile, tüm istem verileri sohbet botu sunucularında saklanmaya devam eder. Tüm istemlerin harici sunuculara kaydedilmesi, bilgisayar korsanlarının yetkisiz erişimine yönelik potansiyel bir tehdit oluşturmaktadır. Ayrıca, teknik hatalar zaman zaman yetkisiz kişilerin diğer sohbet robotu kullanıcılarına ait verilere erişmesini sağlayabilir” dedi. Erginkurban, şirket çalışanlarının yapay zeka kullanırken en sık yaptığı hataları şu şekilde sıraladı
İLK HATA: HASSAS BİLGİLERİ PAYLAŞMAK
Çalışanların LLM’leri kullanırken yaptıkları ilk yaygın hatanın şirketlerinin müşterileri hakkındaki hassas bilgileri paylaşmak olduğunu belirten Erginkurban, “Çalışanların sorgularını sohbet robotlarına girmeden önce kalıcı olarak anonimleştirmeyi bilmesi gerekir. Müşteri gizliliğini korumak için isim, adres veya hesap numarası gibi hassas bilgileri gözden geçirmeleri ve dikkatlice ayıklamaları lazım. En iyi uygulama, ilk etapta kişisel bilgileri kullanmaktan kaçınmak ve genel sorulara veya sorgulara güvenmektir” dedi.
“BELGE YÜKLEMEK VERİLERİ TEHLİKEYE ATMAK ANLAMINA GELEBİLİR”
Sohbet robotları, büyük hacimli verileri hızlı bir şekilde özetlemek ve taslaklar, sunumlar veya raporlar oluşturmak için değerli araçlar olabilir. Yine de ChatGPT gibi araçlara belge yüklemek, bu belgelerde saklanan şirket veya müşteri verilerini tehlikeye atmak anlamına gelebilir” diyen Erginkurban, Belgeleri kopyalamak ve araçtan sunum slaytları için özetler veya öneriler oluşturmasını istemenin cazip gelse de veri açısından güvenli bir yol olmadığını vurguladı. Erginkurban, “ Bu, geliştirme stratejileri gibi önemli belgeler için geçerli olduğu gibi, toplantı notları gibi daha az önemli belgeler de çalışanların şirketlerinin değerli bilgi birikimini ortaya çıkarmasına yol açabilir. Çalışanların chatbottan bir özet veya yardım talep etmeden önce belgeleri manuel olarak incelemesi gerekir” ifadelerini kullandı.
CHATBOTLARA VERİ GİRİLMESİ SIZINTIYA YOL AÇABİLİR
Erginkurban, “Şirketinizin bazı uygulamalarını ve iş akışlarını iyileştirmeye çalıştığınızı düşünün. ChatGPT’den zaman yönetimi veya görev yapısı konusunda yardım istiyorsunuz. Chatbotun bir çözüm geliştirmesine yardımcı olmak için bilgi istemine değerli bilgi birikiminizi ve diğer verileri giriyorsunuz. Tıpkı hassas belgelerin veya müşteri verilerinin chatbotlara girilmesi gibi, hassas şirket verilerinin de bilgi istemine dahil edilmesi, yetkisiz erişime veya gizli bilgilerin sızmasına yol açabilecek yaygın ancak potansiyel olarak zarar verici bir uygulamadır” diyerek kullanıcıları uyardı.