일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- VOC 변환
- 커스텀 애니메이션 적용
- CARLA simulator
- 기능과 역할
- DACON
- Custom Animation
- TensorFlow Object Detection 사용예시
- TensorFlow Object Detection Model Build
- object detection
- 크롤링
- DOTA dataset
- 논문분석
- AI Security
- Towards Deep Learning Models Resistant to Adversarial Attacks
- paper review
- 사회초년생 추천독서
- Branch 활용 개발
- 객체 탐지
- 리눅스 빌드
- Carla
- TensorFlow Object Detection API install
- 개발흐름
- Linux build
- Object Detection Dataset 생성
- InstructPix2Pix
- 논문 분석
- Paper Analysis
- TensorFlow Object Detection Error
- Git
- Docker
Archives
- Today
- Total
목록Adversarial Example (1)
JSP's Deep learning
[Paper Review - AI Security] 1. Explaining And Harnessing Adversarial Examples(Digital Attack)
1. Adversarial Examples 요약 "Adversarial Examples"는 Model의 선형성(Linear nature)의 취약점을 이용한 공격 기법이다. "FGSM(Fast Gradient Sign Method)"을 통해서 Adversarial Examples을 생성한다. "Adversarial Training"을 통해서 "Adversarial Example"에 대해 Model을 Robust하게 한다. 2. 주요 용어 1) Softplus Function log(1+exp(x))로 정의된다. ReLU와 비슷하지만 ReLU는 x < 0에 대해서 0으로 처리하는 반면에 SoftPlus는 조금 더 Smooth하게 0으로 수렴하게 한다. 2) Maxout Function 활성화 함수를 piec..
Paper Review/AI Security
2023. 1. 15. 14:25