본문 바로가기

분류 전체보기96

자바 jdk11 설치, 자바 jdk11 환경변수 설정 홈페이지 링크 Java Platform, Standard Edition 11 Reference Implementations Java Platform, Standard Edition 11 Reference Implementations The official Reference Implementation for Java SE 11 (JSR 384) is based solely upon open-source code available from the JDK 11 Project in the OpenJDK Community. This Reference Implementation a jdk.java.net 왼쪽에서 java SE 11 클릭 Windows 어쩌구 저쩌구 클릭 program files에 압축 해제 Win.. 2023. 3. 17.
[논문 리뷰] Inception v1 요약, 코드, 구현 논문을 상세히 번역하고 한단어씩 해석해주는 포스팅은 많다. 나는 논문을 누구나 알아듣도록 쉽고 간결하게 전달하고자 한다. Inception v1 Going deeper with convolutions SZEGEDY, Christian, et al. Going deeper with convolutions. In: Proceedings of the IEEE conference on computer vision and pattern recognition. 2015. p. 1-9. 논문 원문 링크 저자의 의도 이 당시에는 깊은 네트워크에 대한 아이디어 창출이 가장 핫했다. 저자는 gradient vanishing이 없는 더 깊은 네트워크를 만들고자 했다. 특히 Hebbian principle이라는 뉴로사이언스 .. 2023. 3. 16.
[논문 리뷰] VGGNet 요약, 코드, 구현 논문을 상세히 번역하고 한단어씩 해석해주는 포스팅은 많다. 나는 논문을 누구나 알아듣도록 쉽고 간결하게 전달하고자 한다. VGGNet Very Deep Convolutional Networks for Large-Scale Image Recognition SIMONYAN, Karen; ZISSERMAN, Andrew. Very deep convolutional networks for large-scale image recognition. arXiv preprint arXiv:1409.1556, 2014. 논문 원문 링크 저자의 의도 3x3의 작은 크기의 필터를 사용해서 모델의 depth를 늘려보자. 기존의 문제점 AlexNet이나 ZFNet 같은 모델들은 large scale의 이미지를 처리하는데 문제가 .. 2023. 3. 15.
[논문 리뷰] Transformer (Attention Is All You Need) 요약, 코드, 구현 논문을 상세히 번역하고 한단어씩 해석해주는 포스팅은 많다. 나는 논문을 누구나 알아듣도록 쉽고 간결하게 전달하고자 한다. Transformer Attention Is All You Need VASWANI, Ashish, et al. Attention is all you need. Advances in neural information processing systems, 2017, 30. 논문 원문 링크 저자의 의도 CNN과 RNN에서 인코더와 디코더가 널리 사용되는데, 인코더 디코더 로만 구성된 새로운 간단한 아키텍쳐를 만들고자 했다. 특히 RNN에서 길이가 긴 시퀸스는 학습이 잘 안되는 경향이 있었다. 길이가 길어도 학습이 잘 되는 모델을 만들고자 했다. 기존 문제점 1. 기존의 RNN에서 길이가 긴 .. 2023. 3. 14.
[논문 리뷰] ResNet 요약, 코드, 구현 논문을 상세히 번역하고 한단어씩 해석해주는 포스팅은 많다. 나는 논문을 누구나 알아듣도록 쉽고 간결하게 전달하고자 한다. ResNet Deep Residual Learning for Image Recognition Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016, pp. 770-778 논문 원문 저자의 의도 일반적인 구조의 CNN에서는 레이어를 늘리면 늘릴수록 정확도가 올라가지 않는다. 이유는 비밀이다. 논문을 읽으면 다 나와있다. (밑에 기존 문제점에 적어놨다.) 저자는 레이어를 계속 늘려도 정확도가.. 2023. 3. 7.
깃허브 최신 add 취소, 최신 commit 취소, 용량 큰 파일 실수로 올렸을때, git reset HEAD^ 살다보면 개열받는 순간이 찾아온다. 예를들어 gitignore를 안한 순간?^^ 이런 용량이 큰 파일들은 깃허브에 올리는 순간 입벤 당한다. 그래서 git ignore에 넣어야한다. 하지만 난 그리 똑똑하지 않고 실수를 반복하기에.... git add 를 했지만 커밋도 취소도 안되는 난감한 상황 당황하지 말자. (이미 당황했다.) git log 일단 이걸 친다. 그럼 지금 내 커밋이 어떻게 조져져 있는지 볼 수 있다. 1번째 줄 : git add를 실수한 커밋과 이름. 2번째 줄 : 예를들어 어제 한 커밋과 이름. git reset HEAD^ 1번째 줄 즉 최근 커밋이 사라진다. 이 커밋은 오류(용량 이 크단다 친구야)가 있어서 절대 올릴 수 없다. 결제가 예의바르면 가능하지만 내 지갑은 예의바르지 않다.. 2023. 3. 7.