07.12.2023-Perşembe
İZİNSİZ OLARAK PORNO YAPANLAR VAR bunlar nasıl
önlenecek?
İzinsiz porno
üretimi ve finansal dolandırıcılık gibi kötü amaçlarla kullanılan deepfake'ten
korunmak mümkün mü?
Deep fake KAYNAK,
GETTY IMAGES
Haber bilgisi
Yazan, Merve
Kara-Kaşka
Unvan, BBC
Türkçe
Twitter, @mervekarakaska
4 saat önce
Artık herkes, ses ve görüntülerinin rıza dışında kötü amaçlarla kullanılmasının hedefi haline gelebiliyor. Peki, kullanıcılar potansiyel saldırılardan nasıl korunabilir?
Ses ve görüntüleri kullanarak yeni içerikler üretken yapay zekâ (Generative AI) dolandırıcılık için de yeni bir çağı başlatmış gibi görünüyor.
Şüpheli görünen e-postaların yerini yakınlarınızın ses ve görüntüsüyle sizi arayıp para isteyen yazılımlar alırken, rıza dışında üretilen videolardan kazanç sağlama vakalarının sayısı gün geçtikçe artıyor.
İnsan ses ve görüntüsünü taklit eden deepfake dolandırıcılıklarına karşı araçlar geliştirilse de teknolojideki hızlı ilerlemeler, "ebedi bir kedi-fare oyunu çağını" başlatmış olabilir.
Deepfake nedir, nasıl kullanılıyor?
Deep fake ile
sesi üretilen kadın KAYNAK, UCSF/NOAH BERGER
Fotoğraf altı
yazısı,
ABD'den araştırmacılar 18 yıldır felç olan bir kadının sesini 2005 yılındaki düğün videosunu kullanarak sentezledi.
Deepfake kullanım alanları gün geçtikçe çeşitlenen ve gelişen bir teknoloji. Yapay zekâ ile gerçeğe yakın görüntü ya da seslerin üretilmesini sağlıyor.
Haberin
başlığını atlayın ve okumaya devam edin
Önerilen
haberler
Ali baba
Çinli teknoloji
devi Ali baba, yapay zekâ sohbet robotuyla Chat GPT’YE rakip olacak
Londra'da
Geoffrey Hinton'ın sözleriyle, "Varoluşsal bir risk var" pankartı
tutan protestocu
OpenAI ve Google
Deepmind başkanları dâhil çok sayıda uzman uyardı: Yapay zeka insanlığın yok
olmasına yol açabilir
Ameliyat
Yapay zekâ ile
'daha güvenli' beyin ameliyatları 2 yıl içinde mümkün olabilir
Bilgisayar
klavyesi
BBC yapay zekâyla
üretilen çocuk istismarı görsellerinin nasıl pazarlandığını ortaya çıkardı
Haberin sonu
Deepfake'in günümüzde ufuk açıcı iyi kullanımları geliştirilmeye devam ediyor.
Örneğin Amerika Birleşik Devletleri'ndeki (ABD) University of California San Francisco ve Berkeley'den araştırmacılar bu yaz 18 yıldır felçli olan bir hastanın, beyin implantı ve yapay zekâ yardımıyla ilk kez "konuşmasını" sağlamıştı.
Ekip, hastanın 2005 yılındaki düğününde kaydedilen bir videosunu kullanarak sesini yeniden sentezlemişti.
Umut veren çalışmaların karşısında deepfake, kötü amaçlı kullanımlar için de yeni bir dönemi başlatıyor gibi görünüyor.
Mayıs ayında Çin'in kuzeyinde gerçekleşen bir dolandırıcılık vakasında Baotou şehri polisi, deepfake kullanan bir saldırganın, kurbanın arkadaşının kimliğine bürünerek sahte video görüşmesiyle 622 bin dolar tutarında para transferi yapmasını sağladığını açıklamıştı.
Kurban, arkadaşının ihale sürecinde depozito yatırması gerektiğine inandığı için parayı transfer ettiğini söylemişti.
Deepfake'in finansal suçlarda kullanımı, saldırıların hedef kitlesinin sadece dijital okuryazar nüfus olmadığını göstermesi açısından önemli bulunuyor.
Kimler hedef
olabilir?
Musk deepfake
KAYNAK, BBC
Bugün bir deepfake yazılımı indirip saatler içinde sahte bir video ya da ses üretmek mümkün.
İnternette görselleri ya da sesleri erişilebilir olan ünlüler, sosyal medya fenomenleri (GÖRÜNGÜLERİ) ya da ürettiği içerikle para kazananlar deepfake saldırılarının ilk akla gelen hedefi olabiliyor.
Ancak kötü niyetli kullanımlar bundan çok daha geniş bir kitleyi ilgilendiriyor ve herkesi eşit etkilemiyor.
Örneğin rıza dışı özel görüntülerin üretimi açısından kadınlar daha büyük risk altında görünüyor.
BBC Türkçe'nin sorularını yanıtlayan Oxford Üniversitesi İnternet Enstitüsü'nde yapay zeka etiği ve yasaları alanında uzman Prof. Sandra Wachter, Deepfake'in kötü niyetli kullanımının toplumsal cinsiyet boyutuna dikkat çekiyor:
"Teknoloji çoğu zaman kadınlarla ilgili rıza dışı mahrem görüntüleri dağıtmak ve itibarlarını zedeleyecek karalama kampanyaları için kötüye kullanılıyor."
Saldırılar küçük çocukları ve okul çağındaki kız çocuklarını da etkiliyor.
Bu hafta başında ABD'nin doğu ve batı yakısındaki iki farklı okulda kız çocuklarının deepfake ile çıplak görüntülerinin üretilip dolaşıma sokulmasından mağdur olan aileler, yapay zekânın zararları karşısında daha sıkı yasal önlemler istediklerini söylüyor.
Sahte görüntülerle birlikte sahte ses üretimindeki gelişmeler de yeni güvenlik açıklarıyla ilgili soru işaretleri doğuruyor.
İspanya polisi
KAYNAK, GETTY IMAGES
Fotoğraf altı
yazısı,
Eylül ayında İspanya'da yaşları 11-17 arasında 28 kız çocuğunun sosyal medyadaki fotoğrafları kullanılarak sahte çıplak görüntülerinin yayılması hakkında soruşturma başlatılmıştı
BBC Türkçe'nin sorularını yanıtlayan Almanya'daki Münih Ludwig Maximilian Üniversitesi'nde Bilgisayar Görüşü ve Öğrenimi Grubunun başındaki Prof. Björn Ommer, sahte sesin, "alıcıya orijinalliği doğrulamak için nispeten sınırlı seçenek bıraktığı için özellikle sorunlu bir saldırı" türü oluşturabileceğini söylüyor.
Deepfake ile üretilen sahte sesler bugün sesli kimlik doğrulama sistemleri kullanan şirketleri de tehdit ediyor.
İngiltere'deki Waterloo Üniversitesi'nden araştırmacılar deepfake ile ürettikleri sesi kullanarak sesli kimlik doğrulama sistemlerini aldatma girişimlerinde sadece altı denemede yüzde 99 oranında başarı elde ettiklerini açıklamışlardı.
Araştırmacılar kimlik doğrulamak için sadece müşterilerinin sesini kullanan şirketlerin daha güçlü önlemler almaları gerektiği konusunda uyarıda bulunmuştu.
Buna ek olarak nüfusun ileri yaşlı kesimi, deepfake ile yakınlarının sesini üreterek onlardan para isteyen saldırılara karşı daha büyük risk altında olabiliyor.
Nüfus KAYNAK, GETTY
IMAGES
Fotoğraf altı
yazısı,
Nüfusun ileri yaşlı kesimi, deepfake ile yakınlarının sesini üreterek onlardan para isteyen saldırılara karşı daha büyük risk altında olabiliyor
Prof. Ommer, "Burada hedefler yüksek tanınırlığa sahip kişiler değil, en az medya/dijital okuryazarlığına sahip olanlar" diyor.
Prof. Ommer bunu, ses sentezindeki son gelişmelerin, modellerin saatlerce ses kaydının kullanılması yerine sadece birkaç örnekle eğitilmesine odaklandığını belirterek açıklıyor.
Deepfake sosyal medyada hızla yayılan dezenformasyon (BİLGİ ÇARPITMA) kampanyalarının da bir parçası olabiliyor ve bu sayede hemen hemen tüm internet kullanıcılarını etkiliyor.
Oxford Üniversitesi'nden Prof. Sandra Wachter "Ve sorun şu ki, herkes bundan etkileniyor" diyor ve ekliyor:
"Politikacılar ve devlet başkanları, dezenformasyona (BİLGİ ÇARPITMA) yol açabilecek ve seçim süreçlerini etkileme olasılığı olan potansiyel hedefler.
"Teknoloji, savaşlarla ilgili sahte haberlerin ve komplo teorilerinin yayılması için kullanılıyor, bu da barışı ve demokrasiyi etkiliyor.
"Kesinlikle bir doğruluk krizinin içindeyiz. Gerçek, kurgu ve sahteyi birbirinden ayırmak zorunda olmamız yeni bir şey olmasa da gözlerimizi ve kulaklarımızı bu kadar ikna edici bir şekilde kandıran bir teknolojiye daha önce hiç sahip olmadık."
Deepfake dolandırıcılığından korunmak mümkün mü?
deepfake KAYNAK,
GETTY IMAGES
Fotoğraf altı
yazısı,
Hızlı ilerlemeler sayesinde deepfake içerikler daha hızlı üretiliyor ve daha ikna edici hale geliyor
İnternet kullanıcılarını sahte ses ve görüntü üretilmesine karşı koruduğunu ya da sahte videoları tespit ettiğini iddia eden çevrimiçi araçlar var.
Ancak, bu araçların çoğunluğunun kullanıcı dostu olduğunu veya yaygınlaştığını söylemek zordur.
Buna ek olarak uzmanlara göre bugün en önemli zorluklardan biri yapay zekanın gelişim hızı.
Sahte ses üreten deepfake yazılımlara karşı koruyucu bir yazılım geliştiren St. Louis'teki Washington Üniversitesi'nden Bilgisayar Bilimi ve Mühendisliği alanında çalışan Yrd. Doç. Dr. Ning Zhang, BBC Türkçe ‘ye, "mükemmel güvenlikte bir sistem yok" diyor.
"Sesi tamamen farklı bir teoriyle sentezleyecek yeni teknolojiler karşısında koruma uygulamasının mutlaka bunlara göre uyarlanması gerekir" diye ekliyor.
Aynı senaryo sahte görsel üreten yapay zekâ yazılımları için de geçerli ve sahte içerikler gittikçe daha ikna edici hale geliyor.
Oxford Üniversitesi'nden Prof. Wachter, "Bazılarının sahte içerik oluşturacağı, bazılarının ise söz konusu içeriği tespit edip işaretleyecek teknolojiler yaratacağı ebedi bir kedi fare oyunu çağına girdiğimizi düşünüyorum" diyor.
Prof. Wachter "sahte içerikleri tespit edebilen yüzde 100 güvenilir bir sisteme sahip olmamızın hiçbir zaman mümkün olmayacağını" düşündüğünü söylüyor ve ekliyor:
"Ancak bu bizi yıldırmamalı. Ne zaman birisi bir duvar örse, başkası da onun üzerinden atlamak isteyecektir.
"Yapabileceğimiz tek şey (sahte içerikleri) tespit yazılımına yatırım yapmak, tetikte olmak ve eleştirel kalmak."
Eleştirel ve sorgulayıcı olmak, internette gördüğümüz sahte içeriklerin yayılmasının yanında, yakınının sesinden şüpheli bir telefon alan bir kişinin bu çağrıyı doğrulamasını ve belki hayatı boyunca biriktirdiği paranın yanlış ellere geçmesini de önleyebilir.
Bireysel çabalarınsa sahte içeriklerin olası zararlarına karşı insanları koruyan yasal düzenlemelerle desteklenmesi gerekiyor.
Prof. Wachter, "İleriye yönelik olarak, yapay zeka içeriklerine 'filigranla eklenmesini' ve bu işaretlerin kaldırılmasına para cezası verilmesini yasal olarak zorunlu kılmak da önemli olacaktır" diyor.
Avrupa Birliği'nden ABD'ye ve OpenAI, Google gibi teknoloji şirketlerine farklı kesimler yapay zekâ içeriklerinin filigranlarla işaretleneceğini bu yıl taahhüt etmişti.
İngiltere'de Lortlar Kamarası'nda incelenen Çevrimiçi Güvenlik Yasası, rıza dışı deepfake porno görüntülerinin paylaşımını yasa dışı hale getiriyor.
Yine de yasal düzenlemelerin yapay zekânın gelişim hızını yakalayıp yakalamayacağı belirsizliğini koruyor.
WELMOED SİJTSMA-Kadın Sunucunun yüzünü kullanarak
Porno yapan kişi yargılanıyor:
Hollanda’da ilk
‘deepfake’ davası: Kadın sunucunun yüzünü kullanarak sahte porno üreten kişi
yargılanacak
Welmoed Sijtsma KAYNAK,
GETTY IMAGES
Fotoğraf altı
yazısı,
Welmoed Sijtsma
Haber bilgisi
Yazan, Yusuf
Özkan
Unvan, Lahey
Twitter, @ozkanyusuf
30 Temmuz 2023
Hollanda’da deepfake teknolojisini kullanarak, kadın televizyon sunucusu Welmoed Sijtsma'nın yüzüyle porno film çeken 39 yaşındaki bir erkek hakkında dava açıldı.
Bu aynı zamanda Hollanda’da sahte pornografiye karşı açılan ilk ceza davası olacak.
Amsterdam Savcılığı, Hollandalı erkeği “sahte cinsel içerikli görüntüler yaymak ve üretmekle” suçluyor.
Hollanda Televizyonu’nda sabah programı sunucusu olam Sijtsma, geçen Kasım’da bir sosyal medya mesajı ile kendisine ait bir porno filmin internette dolaştığını öğrendi.
Yaklaşık 10 dakikalık bir porno videoyu gördüğü anı asla unutamadığını belirten sunucu, o anı şöyle anlattı:
Haberin
başlığını atlayın ve okumaya devam edin
Önerilen
haberler
Kondom
Hollanda’da
cinsel yolla bulaşan hastalıkların artması nedeniyle gençlere ücretsiz
prezervatif dağıtılacak
Yapay zekâ
fotoğrafı uzaylı
'Bilimsel
içerik' adı altında hazırlanan yapay zekâ videoları, çocukları hedef alıyor
Helen Mort
Deepfake
teknolojisiyle çekilen porno filmler 'hayatları paramparça ediyor'
NFT
NFTLERE ne oldu?
Haberin sonu
“Başım bir kadın oyuncunun vücuduna monte edilmiş. Kanepede tek başıma oturdum ve ben olmadığımı bilmeme rağmen utançtan yüzümün kızardığını hissettim.”
Hollanda polisi, sahte videoyu deepfake teknolojisiyle hazırlayıp dağıttığı gerekçesiyle 39 yaşındaki erkeği gözaltına aldı.
Zanlı, sorgulandıktan sonra tutuksuz yargılanmak üzere serbest bırakıldı.
Welmoed Sijtsma, Hollanda Televizyonu için bir belgesel hazırladı.
Sunucu, programda deepfake tekniği ile oluşturulan sahte porno filmlerin ve yapımcıların izini sürdü.
Bir polis sözcüsü, kısmen Sijtsma’nın araştırması sayesinde zanlıya ulaşabildiklerini ve gözaltına aldıklarını söyledi.
Amsterdam Savcılığı olayla ilgili soruşturmayı tamamlayarak, 39 yaşındaki erkek zanlı hakkında “sahte cinsel içerikli görüntüler üretmek ve yaymak” suçlamasıyla dava açma kararı aldı.
Deepfake teknolojisi sayesinde hareketli görüntüler, neredeyse gerçek gibi görünen yapay zekânın yardımıyla düzenlenebiliyor.
PORNOGRAFİK Bağımlılığı Hayatları paramparça ediyor!
Deepfake
teknolojisiyle çekilen porno filmler 'hayatları paramparça ediyor'
Helen Mort KAYNAK,
MY BLONDE GF
Fotoğraf altı
yazısı,
Helen Mort: "Resimleri kendim görmem gerekiyordu."
Haber bilgisi
Yazan, Helen
Bushby
Unvan, Eğlence
Dünyası Muhabiri
20 Haziran 2023
Deepfake teknolojisiyle çekilen porno filmlerin insanların psikolojisi üzerindeki etkisini irdeleyen bir belgeselin yönetmeni, bu filmlerin nasıl derin bir travmaya yol açtığını gösterebilmiş olmayı umduğunu söylüyor.
Rosie Morris'in filmi My Blonde GF (Sarışın Kız Arkadaşım), yazar Helen Mort'un bir porno sitesinde deepfake fotoğraflarının kullanıldığını öğrenmesinin ardından yaşadıklarını ele alıyor.
Deepfake: 'Yüzümü
porno videosunda kullandılar'
Deepfake fotoğraf yapay zekâ teknolojisi kullanılarak bir kişinin yüzünün dijital olarak bir diğer kişinin vücuduna eklenmesini içeriyor.
Helen
resimlerinin eski bir Facebook hesabından ya da kamusal alandaki
fotoğraflarından alınmış olabileceğini söylüyor.
Filmde, Helen’i 19 ila 32 yaşlarında çekilmiş, düğünlerde, çeşitli aile toplantılarında gülümserken ya da hamileyken çekilmiş resimlerini karıştırırken izliyoruz
Taylor SWİFT-Yılın kişisi seçildi-Aralık 2023
Time dergisi
Taylor Swift'i yılın kişisi seçti
Taylor Swift KAYNAK,
REUTERS
6 Aralık 2023
Taylor Swift, Amerikan Time dergisi tarafından yılın kişisi ilan edildi.
Son turnesinde bilet satış rekorları kıran Amerikalı şarkıcı, Time'a verdiği demeçte hayatının "en gururlu ve en mutlu" anını yaşadığını söyledi.
Her yıl, o yıl içinde en etkili olan kişi veya olayı seçen Time dergisi daha önce eski ABD başkanı Barack Obama, iklim aktivist Greta Thunberg ve Ukrayna Devlet Başkanı Vladimir Zelenskiy gibi figürleri yılın kişisi seçmişti.
Dergi, Taylor
Swift'i, başta kadınlar olmak üzere insanların iç dünyalarının önemli olduğunu
hissetmelerini sağlayan "olağanüstü bir anlatıcı" olarak niteledi.
Çocuklarımızı ve
gençlerimizi, PORNOGRAFİ-DEN, KUMARDAN, ESRARDAN, EROİNDEN, BARUTU ATEŞTEN,
SİGARADAN, BİLGİSAYAR OYUNLARINDAN elimizden geldiğince uzak tutmaya gayret
etmeliyiz. Onları el becerileri çalışmalarına gark etmeliyiz. Örneğin: Herhangi
bir ENSTRÜMAN icra etsinler, marangozluk, terzilik, berberlik, desinatörlük,
ressamlık, sporun her dalına meyil vermelerini sağlamalıyız. Daha doğrusu en
önemlisi SAYGILI, SEVGİLİ, HÜRMETLİ, İYİ NİYETLİ, İYİLİK BİLEN, MERHAMETLİ,
KÜLTÜRLÜ olarak yetişmelerini sağlamalıyız. Tabii ki en önemlisi İnançlı
olmalarını en yüce olan ALLAH SEVGİSİNİ aşılamalıyız.
Yukarıdaki
yazılar BİANET İnternet Haberlerinden kopya edilmiştir.
Udi Emin Bey-Emin
DEĞİRMENCİ-07.12.2023-Seyhan-ADANA