일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 개발흐름
- AI Security
- VOC 변환
- Object Detection Dataset 생성
- TensorFlow Object Detection 사용예시
- 커스텀 애니메이션 적용
- Paper Analysis
- 객체 탐지
- paper review
- Towards Deep Learning Models Resistant to Adversarial Attacks
- 논문분석
- DOTA dataset
- Linux build
- Docker
- CARLA simulator
- TensorFlow Object Detection Model Build
- Branch 활용 개발
- TensorFlow Object Detection Error
- InstructPix2Pix
- Custom Animation
- 기능과 역할
- object detection
- TensorFlow Object Detection API install
- Git
- 사회초년생 추천독서
- 리눅스 빌드
- 크롤링
- DACON
- 논문 분석
- Carla
Archives
- Today
- Total
목록Towards Deep Learning Models Resistant to Adversarial Attacks (1)
JSP's Deep learning

1. 요약 ①“Optimization 관점”에서 Adversarial Robustness 정의 (=> 강력한 Adversarial Attack에 대한 Defense을 학습) ②Adversarial Training with Strong Attack => Robustness↑ ③ Model’s Capacity↑=> 복잡하고 정교한 Decision boundary => Robustness↑ ④복잡한 Dataset에 대한 Attack에 대해서는 Defense 성능이 좋지 못하다. 2. 용어 정리 1)“First-Order Attack” “한 번의 미분”만으로 공격을 수행하는 기법(Loss function에 대해서 한 번) => 즉, 오차역전파를 한번만 수행함. PGD(Projected Gradient Desce..
Paper Review/AI Security
2023. 2. 21. 21:38