6 Aralık 2023 Çarşamba

PORNOGRAFİDEN UZAK DURMALIYIZ-

 

07.12.2023-Perşembe

İZİNSİZ OLARAK PORNO YAPANLAR VAR bunlar nasıl önlenecek?

İzinsiz porno üretimi ve finansal dolandırıcılık gibi kötü amaçlarla kullanılan deepfake'ten korunmak mümkün mü?

Deep fake KAYNAK, GETTY IMAGES

Haber bilgisi

Yazan, Merve Kara-Kaşka

Unvan, BBC Türkçe

Twitter, @mervekarakaska

4 saat önce

Artık herkes, ses ve görüntülerinin rıza dışında kötü amaçlarla kullanılmasının hedefi haline gelebiliyor. Peki, kullanıcılar potansiyel saldırılardan nasıl korunabilir?








Ses ve görüntüleri kullanarak yeni içerikler üretken yapay zekâ (Generative AI) dolandırıcılık için de yeni bir çağı başlatmış gibi görünüyor.

Şüpheli görünen e-postaların yerini yakınlarınızın ses ve görüntüsüyle sizi arayıp para isteyen yazılımlar alırken, rıza dışında üretilen videolardan kazanç sağlama vakalarının sayısı gün geçtikçe artıyor.

İnsan ses ve görüntüsünü taklit eden deepfake dolandırıcılıklarına karşı araçlar geliştirilse de teknolojideki hızlı ilerlemeler, "ebedi bir kedi-fare oyunu çağını" başlatmış olabilir.

Deepfake nedir, nasıl kullanılıyor?

Deep fake ile sesi üretilen kadın KAYNAK, UCSF/NOAH BERGER

Fotoğraf altı yazısı,

ABD'den araştırmacılar 18 yıldır felç olan bir kadının sesini 2005 yılındaki düğün videosunu kullanarak sentezledi.

Deepfake kullanım alanları gün geçtikçe çeşitlenen ve gelişen bir teknoloji. Yapay zekâ ile gerçeğe yakın görüntü ya da seslerin üretilmesini sağlıyor.

Haberin başlığını atlayın ve okumaya devam edin

Önerilen haberler

Ali baba

Çinli teknoloji devi Ali baba, yapay zekâ sohbet robotuyla Chat GPT’YE rakip olacak

Londra'da Geoffrey Hinton'ın sözleriyle, "Varoluşsal bir risk var" pankartı tutan protestocu

OpenAI ve Google Deepmind başkanları dâhil çok sayıda uzman uyardı: Yapay zeka insanlığın yok olmasına yol açabilir

Ameliyat

Yapay zekâ ile 'daha güvenli' beyin ameliyatları 2 yıl içinde mümkün olabilir

Bilgisayar klavyesi

BBC yapay zekâyla üretilen çocuk istismarı görsellerinin nasıl pazarlandığını ortaya çıkardı

Haberin sonu

Deepfake'in günümüzde ufuk açıcı iyi kullanımları geliştirilmeye devam ediyor.

Örneğin Amerika Birleşik Devletleri'ndeki (ABD) University of California San Francisco ve Berkeley'den araştırmacılar bu yaz 18 yıldır felçli olan bir hastanın, beyin implantı ve yapay zekâ yardımıyla ilk kez "konuşmasını" sağlamıştı.

Ekip, hastanın 2005 yılındaki düğününde kaydedilen bir videosunu kullanarak sesini yeniden sentezlemişti.

Umut veren çalışmaların karşısında deepfake, kötü amaçlı kullanımlar için de yeni bir dönemi başlatıyor gibi görünüyor.

Mayıs ayında Çin'in kuzeyinde gerçekleşen bir dolandırıcılık vakasında Baotou şehri polisi, deepfake kullanan bir saldırganın, kurbanın arkadaşının kimliğine bürünerek sahte video görüşmesiyle 622 bin dolar tutarında para transferi yapmasını sağladığını açıklamıştı.

Kurban, arkadaşının ihale sürecinde depozito yatırması gerektiğine inandığı için parayı transfer ettiğini söylemişti.

Deepfake'in finansal suçlarda kullanımı, saldırıların hedef kitlesinin sadece dijital okuryazar nüfus olmadığını göstermesi açısından önemli bulunuyor.

Kimler hedef olabilir?

Musk deepfake KAYNAK, BBC

Bugün bir deepfake yazılımı indirip saatler içinde sahte bir video ya da ses üretmek mümkün.

İnternette görselleri ya da sesleri erişilebilir olan ünlüler, sosyal medya fenomenleri (GÖRÜNGÜLERİ) ya da ürettiği içerikle para kazananlar deepfake saldırılarının ilk akla gelen hedefi olabiliyor.

Ancak kötü niyetli kullanımlar bundan çok daha geniş bir kitleyi ilgilendiriyor ve herkesi eşit etkilemiyor.

Örneğin rıza dışı özel görüntülerin üretimi açısından kadınlar daha büyük risk altında görünüyor.

BBC Türkçe'nin sorularını yanıtlayan Oxford Üniversitesi İnternet Enstitüsü'nde yapay zeka etiği ve yasaları alanında uzman Prof. Sandra Wachter, Deepfake'in kötü niyetli kullanımının toplumsal cinsiyet boyutuna dikkat çekiyor:

"Teknoloji çoğu zaman kadınlarla ilgili rıza dışı mahrem görüntüleri dağıtmak ve itibarlarını zedeleyecek karalama kampanyaları için kötüye kullanılıyor."

Saldırılar küçük çocukları ve okul çağındaki kız çocuklarını da etkiliyor.

Bu hafta başında ABD'nin doğu ve batı yakısındaki iki farklı okulda kız çocuklarının deepfake ile çıplak görüntülerinin üretilip dolaşıma sokulmasından mağdur olan aileler, yapay zekânın zararları karşısında daha sıkı yasal önlemler istediklerini söylüyor.

Sahte görüntülerle birlikte sahte ses üretimindeki gelişmeler de yeni güvenlik açıklarıyla ilgili soru işaretleri doğuruyor.

İspanya polisi KAYNAK, GETTY IMAGES

Fotoğraf altı yazısı,

Eylül ayında İspanya'da yaşları 11-17 arasında 28 kız çocuğunun sosyal medyadaki fotoğrafları kullanılarak sahte çıplak görüntülerinin yayılması hakkında soruşturma başlatılmıştı

BBC Türkçe'nin sorularını yanıtlayan Almanya'daki Münih Ludwig Maximilian Üniversitesi'nde Bilgisayar Görüşü ve Öğrenimi Grubunun başındaki Prof. Björn Ommer, sahte sesin, "alıcıya orijinalliği doğrulamak için nispeten sınırlı seçenek bıraktığı için özellikle sorunlu bir saldırı" türü oluşturabileceğini söylüyor.

Deepfake ile üretilen sahte sesler bugün sesli kimlik doğrulama sistemleri kullanan şirketleri de tehdit ediyor.

İngiltere'deki Waterloo Üniversitesi'nden araştırmacılar deepfake ile ürettikleri sesi kullanarak sesli kimlik doğrulama sistemlerini aldatma girişimlerinde sadece altı denemede yüzde 99 oranında başarı elde ettiklerini açıklamışlardı.

Araştırmacılar kimlik doğrulamak için sadece müşterilerinin sesini kullanan şirketlerin daha güçlü önlemler almaları gerektiği konusunda uyarıda bulunmuştu.

Buna ek olarak nüfusun ileri yaşlı kesimi, deepfake ile yakınlarının sesini üreterek onlardan para isteyen saldırılara karşı daha büyük risk altında olabiliyor.

Nüfus KAYNAK, GETTY IMAGES

Fotoğraf altı yazısı,

Nüfusun ileri yaşlı kesimi, deepfake ile yakınlarının sesini üreterek onlardan para isteyen saldırılara karşı daha büyük risk altında olabiliyor

Prof. Ommer, "Burada hedefler yüksek tanınırlığa sahip kişiler değil, en az medya/dijital okuryazarlığına sahip olanlar" diyor.

Prof. Ommer bunu, ses sentezindeki son gelişmelerin, modellerin saatlerce ses kaydının kullanılması yerine sadece birkaç örnekle eğitilmesine odaklandığını belirterek açıklıyor.

Deepfake sosyal medyada hızla yayılan dezenformasyon (BİLGİ ÇARPITMA) kampanyalarının da bir parçası olabiliyor ve bu sayede hemen hemen tüm internet kullanıcılarını etkiliyor.

Oxford Üniversitesi'nden Prof. Sandra Wachter "Ve sorun şu ki, herkes bundan etkileniyor" diyor ve ekliyor:

"Politikacılar ve devlet başkanları, dezenformasyona (BİLGİ ÇARPITMA) yol açabilecek ve seçim süreçlerini etkileme olasılığı olan potansiyel hedefler.

"Teknoloji, savaşlarla ilgili sahte haberlerin ve komplo teorilerinin yayılması için kullanılıyor, bu da barışı ve demokrasiyi etkiliyor.

"Kesinlikle bir doğruluk krizinin içindeyiz. Gerçek, kurgu ve sahteyi birbirinden ayırmak zorunda olmamız yeni bir şey olmasa da gözlerimizi ve kulaklarımızı bu kadar ikna edici bir şekilde kandıran bir teknolojiye daha önce hiç sahip olmadık."

Deepfake dolandırıcılığından korunmak mümkün mü?

deepfake KAYNAK, GETTY IMAGES

Fotoğraf altı yazısı,

Hızlı ilerlemeler sayesinde deepfake içerikler daha hızlı üretiliyor ve daha ikna edici hale geliyor

İnternet kullanıcılarını sahte ses ve görüntü üretilmesine karşı koruduğunu ya da sahte videoları tespit ettiğini iddia eden çevrimiçi araçlar var.

Ancak, bu araçların çoğunluğunun kullanıcı dostu olduğunu veya yaygınlaştığını söylemek zordur.

Buna ek olarak uzmanlara göre bugün en önemli zorluklardan biri yapay zekanın gelişim hızı.

Sahte ses üreten deepfake yazılımlara karşı koruyucu bir yazılım geliştiren St. Louis'teki Washington Üniversitesi'nden Bilgisayar Bilimi ve Mühendisliği alanında çalışan Yrd. Doç. Dr. Ning Zhang, BBC Türkçe ‘ye, "mükemmel güvenlikte bir sistem yok" diyor.

"Sesi tamamen farklı bir teoriyle sentezleyecek yeni teknolojiler karşısında koruma uygulamasının mutlaka bunlara göre uyarlanması gerekir" diye ekliyor.

Aynı senaryo sahte görsel üreten yapay zekâ yazılımları için de geçerli ve sahte içerikler gittikçe daha ikna edici hale geliyor.

Oxford Üniversitesi'nden Prof. Wachter, "Bazılarının sahte içerik oluşturacağı, bazılarının ise söz konusu içeriği tespit edip işaretleyecek teknolojiler yaratacağı ebedi bir kedi fare oyunu çağına girdiğimizi düşünüyorum" diyor.

Prof. Wachter "sahte içerikleri tespit edebilen yüzde 100 güvenilir bir sisteme sahip olmamızın hiçbir zaman mümkün olmayacağını" düşündüğünü söylüyor ve ekliyor:

"Ancak bu bizi yıldırmamalı. Ne zaman birisi bir duvar örse, başkası da onun üzerinden atlamak isteyecektir.

"Yapabileceğimiz tek şey (sahte içerikleri) tespit yazılımına yatırım yapmak, tetikte olmak ve eleştirel kalmak."

Eleştirel ve sorgulayıcı olmak, internette gördüğümüz sahte içeriklerin yayılmasının yanında, yakınının sesinden şüpheli bir telefon alan bir kişinin bu çağrıyı doğrulamasını ve belki hayatı boyunca biriktirdiği paranın yanlış ellere geçmesini de önleyebilir.

Bireysel çabalarınsa sahte içeriklerin olası zararlarına karşı insanları koruyan yasal düzenlemelerle desteklenmesi gerekiyor.

Prof. Wachter, "İleriye yönelik olarak, yapay zeka içeriklerine 'filigranla eklenmesini' ve bu işaretlerin kaldırılmasına para cezası verilmesini yasal olarak zorunlu kılmak da önemli olacaktır" diyor. 

Avrupa Birliği'nden ABD'ye ve OpenAI, Google gibi teknoloji şirketlerine farklı kesimler yapay zekâ içeriklerinin filigranlarla işaretleneceğini bu yıl taahhüt etmişti.

İngiltere'de Lortlar Kamarası'nda incelenen Çevrimiçi Güvenlik Yasası, rıza dışı deepfake porno görüntülerinin paylaşımını yasa dışı hale getiriyor.

Yine de yasal düzenlemelerin yapay zekânın gelişim hızını yakalayıp yakalamayacağı belirsizliğini koruyor.

WELMOED SİJTSMA-Kadın Sunucunun yüzünü kullanarak Porno yapan kişi yargılanıyor:

Hollanda’da ilk ‘deepfake’ davası: Kadın sunucunun yüzünü kullanarak sahte porno üreten kişi yargılanacak

Welmoed Sijtsma KAYNAK, GETTY IMAGES

Fotoğraf altı yazısı,

Welmoed Sijtsma

Haber bilgisi

Yazan, Yusuf Özkan

Unvan, Lahey

Twitter, @ozkanyusuf

30 Temmuz 2023

Hollanda’da deepfake teknolojisini kullanarak, kadın televizyon sunucusu Welmoed Sijtsma'nın yüzüyle porno film çeken 39 yaşındaki bir erkek hakkında dava açıldı.

Bu aynı zamanda Hollanda’da sahte pornografiye karşı açılan ilk ceza davası olacak.

Amsterdam Savcılığı, Hollandalı erkeği “sahte cinsel içerikli görüntüler yaymak ve üretmekle” suçluyor.

Hollanda Televizyonu’nda sabah programı sunucusu olam Sijtsma, geçen Kasım’da bir sosyal medya mesajı ile kendisine ait bir porno filmin internette dolaştığını öğrendi.

Yaklaşık 10 dakikalık bir porno videoyu gördüğü anı asla unutamadığını belirten sunucu, o anı şöyle anlattı:

Haberin başlığını atlayın ve okumaya devam edin

Önerilen haberler

Kondom

Hollanda’da cinsel yolla bulaşan hastalıkların artması nedeniyle gençlere ücretsiz prezervatif dağıtılacak

Yapay zekâ fotoğrafı uzaylı

'Bilimsel içerik' adı altında hazırlanan yapay zekâ videoları, çocukları hedef alıyor

Helen Mort

Deepfake teknolojisiyle çekilen porno filmler 'hayatları paramparça ediyor'

NFT

NFTLERE ne oldu?

Haberin sonu

“Başım bir kadın oyuncunun vücuduna monte edilmiş. Kanepede tek başıma oturdum ve ben olmadığımı bilmeme rağmen utançtan yüzümün kızardığını hissettim.”

Hollanda polisi, sahte videoyu deepfake teknolojisiyle hazırlayıp dağıttığı gerekçesiyle 39 yaşındaki erkeği gözaltına aldı.

Zanlı, sorgulandıktan sonra tutuksuz yargılanmak üzere serbest bırakıldı.

Welmoed Sijtsma, Hollanda Televizyonu için bir belgesel hazırladı.

Sunucu, programda deepfake tekniği ile oluşturulan sahte porno filmlerin ve yapımcıların izini sürdü.

Bir polis sözcüsü, kısmen Sijtsma’nın araştırması sayesinde zanlıya ulaşabildiklerini ve gözaltına aldıklarını söyledi.

Amsterdam Savcılığı olayla ilgili soruşturmayı tamamlayarak, 39 yaşındaki erkek zanlı hakkında “sahte cinsel içerikli görüntüler üretmek ve yaymak” suçlamasıyla dava açma kararı aldı.

Deepfake teknolojisi sayesinde hareketli görüntüler, neredeyse gerçek gibi görünen yapay zekânın yardımıyla düzenlenebiliyor.

PORNOGRAFİK Bağımlılığı Hayatları paramparça ediyor!

Deepfake teknolojisiyle çekilen porno filmler 'hayatları paramparça ediyor'

Helen Mort KAYNAK, MY BLONDE GF

Fotoğraf altı yazısı,

Helen Mort: "Resimleri kendim görmem gerekiyordu."

Haber bilgisi

Yazan, Helen Bushby

Unvan, Eğlence Dünyası Muhabiri

20 Haziran 2023

Deepfake teknolojisiyle çekilen porno filmlerin insanların psikolojisi üzerindeki etkisini irdeleyen bir belgeselin yönetmeni, bu filmlerin nasıl derin bir travmaya yol açtığını gösterebilmiş olmayı umduğunu söylüyor.

Rosie Morris'in filmi My Blonde GF (Sarışın Kız Arkadaşım), yazar Helen Mort'un bir porno sitesinde deepfake fotoğraflarının kullanıldığını öğrenmesinin ardından yaşadıklarını ele alıyor.

Deepfake: 'Yüzümü porno videosunda kullandılar'

Deepfake fotoğraf yapay zekâ teknolojisi kullanılarak bir kişinin yüzünün dijital olarak bir diğer kişinin vücuduna eklenmesini içeriyor.

Helen resimlerinin eski bir Facebook hesabından ya da kamusal alandaki fotoğraflarından alınmış olabileceğini söylüyor.

 

Filmde, Helen’i 19 ila 32 yaşlarında çekilmiş, düğünlerde, çeşitli aile toplantılarında gülümserken ya da hamileyken çekilmiş resimlerini karıştırırken izliyoruz 

Taylor SWİFT-Yılın kişisi seçildi-Aralık 2023

Time dergisi Taylor Swift'i yılın kişisi seçti

Taylor Swift KAYNAK, REUTERS

6 Aralık 2023

Taylor Swift, Amerikan Time dergisi tarafından yılın kişisi ilan edildi.

Son turnesinde bilet satış rekorları kıran Amerikalı şarkıcı, Time'a verdiği demeçte hayatının "en gururlu ve en mutlu" anını yaşadığını söyledi.

Her yıl, o yıl içinde en etkili olan kişi veya olayı seçen Time dergisi daha önce eski ABD başkanı Barack Obama, iklim aktivist Greta Thunberg ve Ukrayna Devlet Başkanı Vladimir Zelenskiy gibi figürleri yılın kişisi seçmişti.

Dergi, Taylor Swift'i, başta kadınlar olmak üzere insanların iç dünyalarının önemli olduğunu hissetmelerini sağlayan "olağanüstü bir anlatıcı" olarak niteledi.

Çocuklarımızı ve gençlerimizi, PORNOGRAFİ-DEN, KUMARDAN, ESRARDAN, EROİNDEN, BARUTU ATEŞTEN, SİGARADAN, BİLGİSAYAR OYUNLARINDAN elimizden geldiğince uzak tutmaya gayret etmeliyiz. Onları el becerileri çalışmalarına gark etmeliyiz. Örneğin: Herhangi bir ENSTRÜMAN icra etsinler, marangozluk, terzilik, berberlik, desinatörlük, ressamlık, sporun her dalına meyil vermelerini sağlamalıyız. Daha doğrusu en önemlisi SAYGILI, SEVGİLİ, HÜRMETLİ, İYİ NİYETLİ, İYİLİK BİLEN, MERHAMETLİ, KÜLTÜRLÜ olarak yetişmelerini sağlamalıyız. Tabii ki en önemlisi İnançlı olmalarını en yüce olan ALLAH SEVGİSİNİ aşılamalıyız.

Yukarıdaki yazılar BİANET İnternet Haberlerinden kopya edilmiştir.

Udi Emin Bey-Emin DEĞİRMENCİ-07.12.2023-Seyhan-ADANA