여론몰이-음란물 된 '딥페이크' 심각

by 벼룩시장 posted Oct 19, 2019
?

단축키

Prev이전 문서

Next다음 문서

ESC닫기

크게 작게 위로 아래로 댓글로 가기 인쇄
Extra Form

미동부 최대 생활정보지 벼룩시장
뉴욕 생활정보 중고물품 중고차량 생활잡화 구인 구직 취업정보 일자리 정보 물물교환 중고장터 부동산 하숙 민박 쉐어 게스트하우스 렌트
---------------------------------------------------------------------------------------------------------

기술 발전 급속…포르노 가짜영상 25% 한국연예인

101942.jpg

 

가짜뉴스보다 더 큰 적이 오고 있다. 

조작할 수 없을 것만 같았던 영상 속을 얼굴을 조작하는 ‘딥페이크(Deepfake)’가 한국, 미국은 물론 전 세계를 흔들 준비 중이다.

포브스에 따르면, ‘딥페이크’란 가짜 동영상을 만드는 AI기술 혹은 조작된 동영상 그 자체를 뜻한다. 여기서 조작되는 부분은 동영상 속 인물로, AI를 통해 지금까지의 조작 수준과는 차원이 달라 실제와 구분할 수 없을 정도로 정교하게 제작되기 때문에 새로운 개념을 가지게 됐다.

‘딥페이크’의 단어 유래 역시 동영상 속 등장 인물을 조작한 이의 인터넷 아이디에서 비롯됐다. 이 아이디는 포르노 비디오 영상 속 인물의 얼굴을 악의적으로 유명인의 얼굴과 교체 , 합성해 유통시켰다. 

이미 전 세계적으로 딥페이크 기술은 여론 몰이용 악의적 공격의 수단으로 이용됐다.작년에 인도에서는 정권에 비판적인 여성 언론인의 얼굴을 포르노에 합성한 딥페이크 영상이 유포됐다. 또 멕시코 대선에서는 딥페이크 기술로 조작된 음성이 가짜 뉴스로 만들어지기도 했다. 대통령 후보자 캠프의 관계자들이 공금을 횡령한다는 내용이었고, 이는 대선 형국에 영향을 줬다.  딥페이크 영상은 불법적인 포르노 시장에서 급격하게 확산 중이다. 게다가 딥페이크 영상의 피해자 중 25%는 한국의 유명 여자 아이돌로 드러나, 우리나라의 딥페이크 기술의 무법지대로 전락하고 있다.



---------------------------------------------------------------------------------------------------------
유익한 생활정보가 한곳에.
뉴욕 생활정보 중고물품 중고차량 생활잡화 구인 구직 취업정보 일자리 정보 물물교환 중고장터 부동산 하숙 민박 쉐어 게스트하우스 렌트
---------------------------------------------------------------------------------------------------------



Articles

23 24 25 26 27 28 29 30 31 32