[모두의연구소] AI 보안 관련 무료 세미나(3/26화)
- 행사명: [모두팝 세미나] 도둑을 집주인으로 인식한다고? : Adversarial Examples의 소개와 구현
- 접수 기간: ~2023.3.26(화) 13:00
- 일시: 2023.3.26(화) 19:30~21:30
- 장소: 모두의연구소 강남캠퍼스 라운지(서울 강남구 강남대로 324 역삼디오슈페리움 2층) / 온라인
- 참가 방법: 페스타에서 신청( https://festa.io/events/4928 )
- 프로그램 요약: 딥러닝 보안의 최전선인 적대적 공격과 방어. 간단한 실습과 함께, 작은 변형만으로도 딥러닝 모델을 속일 수 있는 적대적 예제(Adversarial Examples)의 원리에 대해 이해해봅니다.
- 프로그램 세부
1. 강연
• 인공지능이 해킹을 당하면 어떻게 될까?
• 강의 이해를 위한 딥러닝 네트워크 이해하기
• 도둑을 집주인으로 인식한다고? 적대적 샘플의 소개
• [실습] CleverHans 라이브러리와 FGSM과 PGD 기법으로 적대적 학습 모델 만들어보기
※ 오프라인: 현장에서만 진행되는 이벤트 있음 (실습 참가자 일부 시상)
• 적대적 공격을 방어하려면?
2. Q&A
- 참가 대상: 오프라인 30명 / 온라인 무제한
딥러닝 기술을 활용하여 보안 체계를 강화하고자 하는 정보보안 분야의 현직자
적대적 공격에 대한 이해를 바탕으로 보다 견고한 딥러닝 모델을 개발하고자 하는 인공지능 연구원
영상 딥러닝과 정보보안에 관심 있는 인공지능/정보보안 분야 현직자 및 학생
선수 지식: Python, TensorFlow(혹은 Pytorch), 딥러닝 기본 개념(가중치/손실함수 등을 이해할 만한 수준)에 대한 지식이 필요합니다.