Türkiye Petrolleri, BOTAŞ Üzerinden Yapılan Deepfake Dolandırıcılığı
Yazı İçeriği
Fake Deep Teknolojisi ile Türkiye Petrolleri Adına Yapılan Dolandırıcılık
Giriş
Yapay zekâ (AI) teknolojilerindeki gelişmeler, hayatımızı kolaylaştırdığı kadar, siber suçlar için yeni kapılar açıyor. Deepfake, bu teknolojiler arasında son dönemde en dikkat çeken ve potansiyel olarak en tehlikeli olanlarından biri. Türkiye’de enerji sektörünün devlerinden Türkiye Petrolleri Anonim Ortaklığı’nın (TPAO) adı kullanılarak gerçekleştirilen deepfake dolandırıcılıkları, bu tehlikenin somut bir örneği olarak öne çıkıyor. Bu makalede, hem dolandırıcılık yöntemleri hem de bu tür tehditlerden korunma yolları derinlemesine incelenecek.
Deepfake Teknolojisi: Bir Dolandırıcılık Aracı
Deepfake Nedir?
Deepfake, “deep learning” (derin öğrenme) ve “fake” (sahte) kelimelerinin birleşiminden türetilmiş bir terimdir. Bu teknoloji, bir kişinin yüzünü, mimiklerini ve sesini gerçekçi bir şekilde taklit etmek için derin öğrenme algoritmalarını kullanır. Örneğin, bir kişinin konuşmasını içeren bir video, başka bir kişinin yüzü ve sesiyle değiştirilerek sahte bir içerik oluşturulabilir.
Nasıl Kullanılıyor?
Deepfake, başlangıçta eğlence ve yaratıcı içerik üretimi amacıyla geliştirildi. Ancak bugün dolandırıcılık, dezenformasyon ve itibar zedeleme gibi kötü niyetli amaçlar için kullanılmaya başlandı. Bu teknolojiyi kullanarak sahte toplantılar düzenlemek, e-posta dolandırıcılığına güvenilirlik kazandırmak ve hatta hedef kişilerin seslerini taklit ederek büyük miktarda para talep etmek mümkün hale geldi.
Türkiye Petrolleri Üzerinden Yapılan Deepfake Dolandırıcılığı
Türkiye Petrolleri, devletin en önemli kuruluşlarından biri olarak enerji sektöründe stratejik bir yere sahiptir. Bu nedenle dolandırıcılar, şirketin güvenilirliğini kötüye kullanarak deepfake teknolojisiyle sahte içerikler üretmiş ve bu içeriklerle hem finansal kazanç elde etmeyi hem de kurumu itibarsızlaştırmayı hedeflemiştir.
Kullanılan Yöntemler:
- Sahte Yatırım Projeleri
Dolandırıcılar, Türkiye Petrolleri’nin adını ve logosunu kullanarak sahte yatırım projeleri oluşturdu. Bu projelerde deepfake teknolojisiyle oluşturulmuş yönetici videoları yer aldı. Örneğin, üst düzey bir yöneticinin “Türkiye’nin yeni petrol sahalarındaki fırsatlar” hakkında konuştuğu sahte videolarla yatırımcılar hedef alındı. - Ses Taklit Dolandırıcılığı (Voice Cloning)
Dolandırıcılar, Türkiye Petrolleri yöneticilerinin seslerini taklit eden deepfake ses teknolojisini kullandı. Telefon görüşmelerinde, çalışanlardan veya iş ortaklarından büyük miktarlarda ödeme talep edildi. Bu sahte görüşmeler, inandırıcılığı artırarak kurbanların dolandırılmasını sağladı. - Kimlik Avı (Phishing) ve E-Posta Dolandırıcılığı
Dolandırıcılar, sahte deepfake videolarıyla desteklenen e-postalar gönderdiler. Bu e-postalarda, yatırımcılardan veya iş ortaklarından “acil ödeme” yapılması talep edildi. Deepfake içeriklerin inandırıcılığı, kurbanların bu e-postalara güvenmesini sağladı. - Sosyal Medya Üzerinden Siyasetçilerin Seslendirmesi Kullanıldı
Suçun failleri, siyasetçilerin, cumhurbaşkanının görüntüsü ve seslendirmesini kullanarak kullanıcılarda güven oluşturmaktadır. Referansları sorgulanamayacak kadar güvenilir kişiler söz konusu olunca failler işlerini daha kolaylıkla yaparak mağdurların iradelerini sakatlayarak elde etmek istediği menfaate daha kolay erişmektedirler.
Deepfake Dolandırıcılığının Riskleri
- Finansal Kayıplar
Deepfake kullanılarak yapılan dolandırıcılıklar, büyük çapta finansal zararlar doğurabilir. Özellikle büyük kuruluşlar, sahte projelere fon aktarabilir veya dolandırıcıların taleplerine yanıt verebilir. - İtibar Zedelenmesi
Türkiye Petrolleri gibi önemli kurumlar, adlarının bu tür dolandırıcılıklarla anılması nedeniyle itibar kaybı yaşayabilir. Bu durum, hem ulusal hem de uluslararası alanda güven kaybına yol açar. - Hedefli Saldırılar
Deepfake dolandırıcılığı, genellikle enerji sektöründe stratejik öneme sahip kuruluşları hedef alır. Bu da, ekonomik ve siyasi istikrarı tehdit eden daha büyük bir sorun yaratır. - Halkın Yanlış Bilgilendirilmesi
Deepfake videolar, sahte bilgilerle kamuoyunu yanıltabilir ve toplumda güvensizlik yaratabilir.
Bu Tür Dolandırıcılıklardan Korunma Yöntemleri
- Yapay Zeka Tabanlı Doğrulama Araçları
Deepfake içeriklerini tespit etmek için geliştirilen özel yapay zeka araçları kullanılmalıdır. Bu araçlar, sahte video ve sesleri gerçeklerinden ayırt edebilir. - Çok Aşamalı Doğrulama Süreçleri
Bir video, ses kaydı veya talep doğrulanmadan kesinlikle işlem yapılmamalıdır. Örneğin, yazılı teyit süreçleri ve ikinci bir kaynak aracılığıyla doğrulama sağlanabilir. - Çalışan ve Paydaş Eğitimleri
Dolandırıcılık yöntemlerine karşı düzenli eğitimler verilmelidir. Çalışanlar ve iş ortakları, bu tür dolandırıcılık yöntemlerini fark edebilecek donanıma sahip olmalıdır. - Yasal Düzenlemeler
Deepfake teknolojisiyle gerçekleştirilen dolandırıcılıklara karşı uluslararası mücadele sağlanmalıdır. Özellikle faillerin yurtdışı telefonları üzerinden mağdurlara erişim sağladığı dikkate alınarak “Whatsapp”, “skype” , “telegram” uygulamalarından anlık olarak kişilerin gerçek ip adresleri talep edildiğinde verilebilmelidir. Ayrıca deepfake ile ilgili bildirimlerin yapılabilmesi için kullanıcılara imkan tanınarak yine yapay zeka ile bu kişilerin yazışmaları denetlenmelidir. Suç olduğuna yönelik tespit halinde ilgili ülkeye faillerin ip adresleri bildirilmelidir. - Kamuoyu Farkındalığı
Toplumda deepfake teknolojisi ve bu teknolojinin dolandırıcılık amaçlı kullanımları hakkında farkındalık artırılmalıdır. Medya ve kamu kurumları bu konuda bilgilendirici kampanyalar düzenleyebilir.
Sonuç
Deepfake dolandırıcılığı, sadece bireyleri değil, büyük ölçekli kuruluşları da hedef alan modern bir tehdit haline gelmiştir. Türkiye Petrolleri’ne yönelik bu tür saldırılar, bu teknolojinin ne kadar büyük bir tehdit oluşturduğunu açıkça ortaya koyuyor. Bu nedenle, gerek bireyler gerekse kurumlar, deepfake dolandırıcılığına karşı daha bilinçli ve hazırlıklı olmalıdır. Teknolojik farkındalığın artırılması, dolandırıcılığa karşı alınabilecek en önemli önlemlerden biridir.