라이프

딥페이크(Deepfake), 모르면 나도 당한다!

하늘을 나는 늘보 2024. 3. 5. 20:16

딥페이크(Deepfake)는 인공지능을 활용하여 얼굴과 목소리를 완벽하게 모방하여 위조된 디지털 콘텐츠를 생성하는 기술을 의미합니다.

 

DEEPBRAIN AI 제공

 

 

사회적 파장

딥페이크의 등장은 디지털 콘텐츠의 신뢰성과 안전성에 대한 심각한 우려를 불러일으키고 있습니다. 이러한 기술을 이용하여 목소리를 통한 사기, 정치적 선동, 그리고 명예훼손 등 다양한 문제를 야기할 수 있기 때문입니다. 또한, 딥페이크의 발전에 따라 일반 사용자들도 쉽게 해당 기술을 사용할 수 있게 되어, 보다 개인적이고 사적인 영역에서도 위조가 이뤄질 것으로 보여, 앞으로 더욱 사회적인 문제를 일으킬 걸로 보입니다..

최근에는 영상통화를 통한 AI 보이스피싱 역시 늘어나고 있습니다. 안면인식 기술과 딥페이크 기술을 결합하여 실제 상대방과 똑같이 보이는 영상을 생성하고, 이를 통해 보이스피싱을 시도하는 사례가 늘어나고 있습니다. 이러한 기술의 발전으로 인해 사기범들은 피해자들을 속이는데 더 많은 도구를 갖게 되었습니다.

 

이러한 상황에서는 딥페이크에 대한 인식과 대응이 필요하며, 기술적인 대책과 함께 개개인이 정보를 확인하고 검증하는 습관을 키워야겠으며, 딥페이크에 대한 예방 및 대응 전략을 방안을 찾아 이로 인한 피해를 최소화해야겠습니다.

 

 

보이스피싱 대처방안

 

전화번호 확인

목소리가 똑같이 들리더라도, 전화번호가 익숙하지 않다면 의심 먼저 하세요, 전화번호를 미리 저장해 두고,, 수상한 전화가 왔을 때 확인하는 습관을 가지세요.

신뢰할 수 있는 채널 사용

긴급한 사항이나 중요한 정보 전달이 필요한 경우, 기존에 사용했던 신뢰할 수 있는 채널(: 가족 그룹 채팅, 이메일 등)을 통해 확인을 요청해야 합니다. 전화로 들리는 목소리만으로 확신하지 마세요!

명시적인 확인 요청

상대방이 긴급한 상황을 이용하는 경우가 많으니 다시 한번 확인을 요청하세요. 의심스러운 전화를 받았을 때는, 직접 해당 지인에게 전화를 걸어 상황을 확인하는 것이 안전합니다.

정보 미공개 원칙

가족 구성원 간에도 민감한 정보는 전화나 메시지를 통해 공유하지 말아야 합니다. 금융 정보나 개인적인 사항은 안전한 채널을 통해서만 주고받으세요.

통화 내용 주의

이상한 질문이나 정보 요청에 먼저 의심하세요. 가족 구성원이라고 주장하더라도 적절하지 않은 정보를 요구하는 경우 의심 먼저 하세요.

음성 녹음 활용

목소리가 중요한 역할을 하는 상황에서는 음성 녹음을 통해 목소리의 증거를 보관하는 습관을 가지시는 게 좋습니다. 이는 사기 사건이 발생했을 때, 필요한 증거로 활용될 수 있습니다. 통화녹음 어플을 이용하면 유용합니다.

보안 교육

가족들과 함께 딥페이크와 보이스피싱에 대한 보안 교육을 받고, 서로의 안전을 공유하세요..

가족끼리 의심스러운 상황에 주고받을 수 있는 암호를 만드는 것도 좋은 팁입니다.

 

 

보이스피싱에 당했을 때,  대처방안

1. 경찰청 혹은 송금한 금융회사 고객센터에 신속히 신고하고, 긴급 계좌 지급정지를 신청하세요.

2. 금융 정보 유출이 의심된다면 신규 계좌 발급을 막아야 합니다.

3. 경찰서 사이버 수사대를 방문해 사건사고 확인원을 발급하여 피해금 환급 신청을 하세요.

 

결국,

AI 보이스피싱은 AI기술이 발전하는 속도만큼 계속해서 발전하고 새로운 형태로 나타날 것으로 예상됩니다. 이에 대해 늘 숙지하고 대비하여 피해를 최소화해야겠습니다.

 

 

 

피싱사기 피해신고처