<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>minji-o-j.log</title>
        <link>https://velog.io/</link>
        <description>🐢</description>
        <lastBuildDate>Fri, 22 Oct 2021 14:58:36 GMT</lastBuildDate>
        <docs>https://validator.w3.org/feed/docs/rss2.html</docs>
        <generator>https://github.com/jpmonette/feed</generator>
        <image>
            <title>minji-o-j.log</title>
            <url>https://images.velog.io/images/minji-o-j/profile/eda0cf85-475e-40b2-b245-8a2c64a5013c/KakaoTalk_20210808_013354237.jpg</url>
            <link>https://velog.io/</link>
        </image>
        <copyright>Copyright (C) 2019. minji-o-j.log. All rights reserved.</copyright>
        <atom:link href="https://v2.velog.io/rss/minji-o-j" rel="self" type="application/rss+xml"/>
        <item>
            <title><![CDATA[깃허브 명령어]]></title>
            <link>https://velog.io/@minji-o-j/%EA%B9%83%ED%97%88%EB%B8%8C-%EB%AA%85%EB%A0%B9%EC%96%B4</link>
            <guid>https://velog.io/@minji-o-j/%EA%B9%83%ED%97%88%EB%B8%8C-%EB%AA%85%EB%A0%B9%EC%96%B4</guid>
            <pubDate>Fri, 22 Oct 2021 14:58:36 GMT</pubDate>
            <description><![CDATA[<h3 id="single-branch-clone">single branch clone</h3>
<pre><code>git clone -b 브랜치이름 --single-branch 저장소주소

ex) git clone -b minji --single-branch https://github.com/minji-o-j/kakao-arena</code></pre>]]></description>
        </item>
        <item>
            <title><![CDATA[부스트캠프 AI Tech Week12 회고]]></title>
            <link>https://velog.io/@minji-o-j/%EB%B6%80%EC%8A%A4%ED%8A%B8%EC%BA%A0%ED%94%84-AI-Tech-Week12-%ED%9A%8C%EA%B3%A0</link>
            <guid>https://velog.io/@minji-o-j/%EB%B6%80%EC%8A%A4%ED%8A%B8%EC%BA%A0%ED%94%84-AI-Tech-Week12-%ED%9A%8C%EA%B3%A0</guid>
            <pubDate>Fri, 22 Oct 2021 13:59:33 GMT</pubDate>
            <description><![CDATA[<h1 id="week-12">Week 12</h1>
<p>굉장히 오랜만에 회고글을 쓰는 느낌이 드는데...</p>
<h2 id="1-강의-내용">1) 강의 내용</h2>
<ul>
<li>MRC 벌써 2주가 지났다..!</li>
<li>블로그에 따로 정리하지 않고 Noteshelf에 정리</li>
</ul>
<h3 id="강의-수강-내역">강의 수강 내역</h3>
<ul>
<li>저번주부터 이번주까지 MRC 1~10강을 들었다.</li>
<li>내용은 재미있다고 느끼는데(신기하다) 코드 이해가 어려운 것 같다..</li>
</ul>
<h2 id="2-대회-관련-내용">2) 대회 관련 내용</h2>
<ul>
<li>이번주 나는 EDA를 맡아서 했었고, train, valid data를 맡아서 했다. 관련자료는 <a href="https://github.com/boostcampaitech2/mrc-level2-nlp-09/blob/eda/EDA_train%2C%20valid%20data%EC%82%B4%ED%8E%B4%EB%B3%B4%EA%B8%B0.ipynb">여기</a>에...</li>
<li>그다음에는 sparse에서 elastic search를 하고있는데 설치부터 쉽지않다..</li>
</ul>
<h2 id="3-피어세션-정리">3) 피어세션 정리</h2>
<ul>
<li>노션(비공개)로 진행하고 있다.</li>
<li>거의 게더타운에서 하루종일 시간을 보내는 것 같다. 줌보다는 자유로워서 편한데 테트리스가 자꾸 하고싶어진다ㅋㅋ</li>
</ul>
<h2 id="4-학습-회고">4) 학습 회고</h2>
<h3 id="이번주-한-주-점수">이번주 한 주 점수</h3>
<p>★★★☆☆</p>
<ul>
<li>EDA를 열심히 했다.</li>
<li>나머지 부분은 너무 많은 오류를 맞닥뜨려서 해결하는데 애먹고있다..</li>
</ul>
<h3 id="이번주-한-주동안-어떤부분이-성장했나요">이번주 한 주동안 어떤부분이 성장했나요?</h3>
<ul>
<li>데이터를 보는 법?</li>
<li>시각화를 통해 어떤것을 얻을 수 있을까 고민을 많이 했다.</li>
<li>retrieval에대한 이해</li>
</ul>
<h3 id="이번주-한-주-동안-스스로-아쉬웠던-부분은-무엇이고-어떻게-개선할-수-있을까요">이번주 한 주 동안 스스로 아쉬웠던 부분은 무엇이고, 어떻게 개선할 수 있을까요?</h3>
<ul>
<li>집중..!! and 체력 ㅋㅋ</li>
<li>시간관리..늘 느끼지만....</li>
</ul>
<h3 id="다음주-계획">다음주 계획</h3>
<ul>
<li>elastic search 관련해서 구성 후 실험 진행</li>
<li>빨리 끝내고 reader로 넘어가자</li>
</ul>
]]></description>
        </item>
        <item>
            <title><![CDATA[부스트캠프 AI Tech Week8 회고]]></title>
            <link>https://velog.io/@minji-o-j/%EB%B6%80%EC%8A%A4%ED%8A%B8%EC%BA%A0%ED%94%84-AI-Tech-Week8-%ED%9A%8C%EA%B3%A0</link>
            <guid>https://velog.io/@minji-o-j/%EB%B6%80%EC%8A%A4%ED%8A%B8%EC%BA%A0%ED%94%84-AI-Tech-Week8-%ED%9A%8C%EA%B3%A0</guid>
            <pubDate>Fri, 24 Sep 2021 15:01:11 GMT</pubDate>
            <description><![CDATA[<p>이번주는 연휴 주라서 목, 금 특강으로 구성되었다!</p>
<h3 id="목">목</h3>
<ul>
<li>이활석 (Upstage) - 서비스 향 AI  모델 개발하기</li>
<li>김상훈 (Upstage) - 캐글 그랜드마스터의 경진대회 노하우 대방출</li>
<li>구종만 (Tower Research Capital) - AI + ML과 Quant Trading</li>
<li>문지형 (Upstage) - 내가 만든 AI 모델은 합법일까, 불법일까</li>
</ul>
<h3 id="금">금</h3>
<ul>
<li>이준엽 (Upstage) - Full stack ML Engineer</li>
<li>오혜연 (KAIST) - AI Ethics</li>
<li>박은정 (Upstage) - AI 시대의 커리어 빌딩</li>
<li>박성준 (Upstage) - 자연어 처리를 위한 언어 모델의 학습과 평가</li>
</ul>
<h3 id="오피스아워">오피스아워</h3>
<ul>
<li>시각화 관련 오피스아워를 진행했는데 아직도 NLP는 어떻게 해야할지 감이 잘 안오는 부분이 있다!</li>
</ul>
<h3 id="피어세션">피어세션</h3>
<ul>
<li>다음주에 시작되는 대회를 위한 rule 등을 정하였다.</li>
</ul>
<h3 id="한-주-회고">한 주 회고</h3>
<ul>
<li>연휴 중반부터 몸살이 심하게 나서 공부를 생각한 것보다 많이 못한 것 같다... 이번주는 예상치 못하게 학교 관련 일정에.... 다음주는 뜬금없이 면접도 있어서 대회와 면접 준비를 어떻게 해야할지 고민이다...!!!ㅠ.ㅠ</li>
<li>주말 체력관리+개념공부 열심히 해야지...</li>
</ul>
]]></description>
        </item>
        <item>
            <title><![CDATA[부스트캠프 AI Tech Week6 회고]]></title>
            <link>https://velog.io/@minji-o-j/%EB%B6%80%EC%8A%A4%ED%8A%B8%EC%BA%A0%ED%94%84-AI-Tech-Week6-%ED%9A%8C%EA%B3%A0</link>
            <guid>https://velog.io/@minji-o-j/%EB%B6%80%EC%8A%A4%ED%8A%B8%EC%BA%A0%ED%94%84-AI-Tech-Week6-%ED%9A%8C%EA%B3%A0</guid>
            <pubDate>Fri, 10 Sep 2021 13:35:37 GMT</pubDate>
            <description><![CDATA[<h1 id="week-6">Week 6</h1>
<h2 id="1-강의-내용">1) 강의 내용</h2>
<ul>
<li>블로그에 따로 정리하지 않고 Noteshelf에 정리</li>
<li>벌써 week 6이라서 NLP를 시작하게 되었다..!</li>
</ul>
<h3 id="강의-수강-내역">강의 수강 내역</h3>
<ul>
<li>(01강) Introduction to NLP, Bag-of-Words</li>
<li>(02강) Word Embedding</li>
<li>(03강) Basics of Recurrent Neural Networks (RNNs)</li>
<li>(04강) LSTM and GRU</li>
<li>(05강) Sequence to sequence with attention</li>
<li>(06강) Beam search and BLEU score</li>
</ul>
<p>어디까지 이해하려고 하느냐에 따라서 난도가 정해지는 것 같다..! 개인적으로 제일 어려웠던 부분은 3, 4강이었고, 5강에서 생긴 질문에 대한 궁금증은 6강과 마스터클래스를 통해서 해결된 것 같다.</p>
<h2 id="2-과제-수행-과정--결과물-정리">2) 과제 수행 과정 / 결과물 정리</h2>
<h3 id="필수과제">필수과제</h3>
<ul>
<li><ol>
<li>Data Preprocessing Assignment</li>
</ol>
</li>
<li><ol start="2">
<li>RNN-based Lanugage Model Assignment</li>
</ol>
</li>
<li><ol start="3">
<li>Subword-level Language Model Assignment</li>
</ol>
</li>
<li><ol start="4">
<li>Preprocessing for Neural Machine Translation Model Assignment</li>
</ol>
</li>
</ul>
<p>전체적으로 어렵지는 않았던 것 같다. 대신에 과제 <strong>해결</strong> 이외에 코드를 이해하려고 할 때에는 어려움이 있었던 것 같다.</p>
<h3 id="선택과제">선택과제</h3>
<ul>
<li>선택과제 1 - BERT Fine-tuning Assignment</li>
<li>그런데 걍 돌리니까 92퍼가 넘었다... 나중에 좀더 이해를..</li>
</ul>
<h2 id="3-피어세션-정리">3) 피어세션 정리</h2>
<p><a href="https://zany-utahraptor-402.notion.site/Lv2-U-stage-5aa37f93c8f04f64b6b180425ddedb2d">팀 노션</a>
<a href="https://docs.google.com/document/d/1YspOS_SS_3heSoCIp9WwD-9ygnkCQJ6VnWIygVu7OPU/edit">팀 회고록</a></p>
<ul>
<li>질문을 많이 해서 좋은것같다</li>
</ul>
<h2 id="4-학습-회고">4) 학습 회고</h2>
<h3 id="이번주-한-주-점수">이번주 한 주 점수</h3>
<p>★★★☆☆</p>
<ul>
<li>이해하는데 너무 많은 시간이 걸려서 힘들었던 것 같다</li>
<li>팀 정하느라 머리아팠음</li>
<li>체력+시간관리 잘하기!</li>
<li>질문을 많이 했다</li>
</ul>
<h3 id="이번주-한-주동안-어떤부분이-성장했나요">이번주 한 주동안 어떤부분이 성장했나요?</h3>
<ul>
<li>질문을 많이 하면서 세세한 개념을 알게 되었다</li>
<li>NLP basic</li>
</ul>
<h3 id="이번주-한-주-동안-스스로-아쉬웠던-부분은-무엇이고-어떻게-개선할-수-있을까요">이번주 한 주 동안 스스로 아쉬웠던 부분은 무엇이고, 어떻게 개선할 수 있을까요?</h3>
<ul>
<li>팀원을 정하면서 고민이 많아서 집중을 못하는시간이 있었음!</li>
<li>어려울때 바로 찾기보다는 좀 적어놓고 한 강의를 듣고 나서 쭉 찾아보는게 시간 절약에 도움이 될 것 같다.</li>
</ul>
<h3 id="다음주-계획">다음주 계획</h3>
<ul>
<li>NLP강의 듣기</li>
<li>밑딥 주말에 공부하기</li>
<li>dl basic도 복습! 시간나면gㅎㅎ</li>
</ul>
]]></description>
        </item>
        <item>
            <title><![CDATA[can't convert cuda:0 device type tensor to numpy]]></title>
            <link>https://velog.io/@minji-o-j/cant-convert-cuda0-device-type-tensor-to-numpy</link>
            <guid>https://velog.io/@minji-o-j/cant-convert-cuda0-device-type-tensor-to-numpy</guid>
            <pubDate>Sat, 28 Aug 2021 12:39:24 GMT</pubDate>
            <description><![CDATA[<pre><code>TypeError: can&#39;t convert cuda:0 device type tensor to numpy. Use Tensor.cpu() to copy the tensor to host memory first.</code></pre><hr>
<h2 id="원인">원인</h2>
<pre><code class="language-python">from sklearn.metrics import f1_score
def f1(output, target, is_training=False):
    f1_score(target, output, average = &#39;macro&#39;)
    return f1</code></pre>
<p>로 코드 수정 후 발생</p>
<p>-&gt; output, target이 gpu에 할당되어있는 tensor이지만 이를 numpy로 변환하게 되면서 오류 발생</p>
<h2 id="해결">해결</h2>
<pre><code class="language-python">f1_score(target.cpu().numpy(), output.cpu().numpy(), average = &#39;macro&#39;)</code></pre>
]]></description>
        </item>
        <item>
            <title><![CDATA[albumentations 정리 (Blur ~ Invertimg)]]></title>
            <link>https://velog.io/@minji-o-j/albumentations-%EC%A0%95%EB%A6%AC-Blur-Invertimg</link>
            <guid>https://velog.io/@minji-o-j/albumentations-%EC%A0%95%EB%A6%AC-Blur-Invertimg</guid>
            <pubDate>Fri, 27 Aug 2021 15:31:16 GMT</pubDate>
            <description><![CDATA[<pre><code>기준은 현재 진행중인 dataset (사람+마스크)으로 적용가능여부를 판단하였음</code></pre><h2 id="test-site"><a href="https://albumentations-demo.herokuapp.com/">Test site</a></h2>
<h2 id="p는-기본으로-10으로-되어있었는데-05로-변경해서-작성하였음">p는 기본으로 1.0으로 되어있었는데 0.5로 변경해서 작성하였음</h2>
<hr>
<h2 id="blur-별로임">Blur (별로임)</h2>
<h2 id="clahe히스토그램-평활화-o">CLAHE(히스토그램 평활화) (O)</h2>
<ul>
<li>clip_limit 15 이하</li>
<li>height 8 width 8</li>
<li><img src="https://images.velog.io/images/minji-o-j/post/fabe1ad3-7025-492d-9f1e-b6d68e4fb9b6/image.png" alt=""></li>
</ul>
<pre><code>CLAHE(always_apply=False, p=0.5, clip_limit=(1, 15), tile_grid_size=(8, 8))</code></pre><h2 id="centercrop-o">CenterCrop (O)</h2>
<ul>
<li>얼굴 이미지 잘랐을 경우 사용 X<pre><code>CenterCrop(always_apply=False, p=0.5, height=??, width=??)
</code></pre></li>
</ul>
<pre><code>## Channel Dropout (X)
## Channel Shuffle (X)
- 위의 2개는 색상변환이 있어서 pass하였다

## Coarse Dropout
- ![](https://images.velog.io/images/minji-o-j/post/afbda2b2-13af-4207-8254-8b51532abda6/image.png)
- hole 개수 1~15
- min, max height/width: 8~15
- fill_value (0,0,0)</code></pre><p>CoarseDropout(always_apply=False, p=0.5, max_holes=20, max_height=15, max_width=15, min_holes=1, min_height=8, min_width=8)</p>
<pre><code>
## Crop (X)
## Cutout (Coarse Dropout이랑 둘중 하나만 사용하면될듯?)
- 범위설정이 아니라 hole의 개수/w/h가 고정된다는 점에서 차이가 있는듯?
- ![](https://images.velog.io/images/minji-o-j/post/69eb7095-eac7-4cfb-b4c4-c07dd750232d/image.png)
- hole 10개, w,h=10</code></pre><p>Cutout(always_apply=False, p=0.5, num_holes=10, max_h_size=10, max_w_size=10)</p>
<pre><code>
## Downscale(O)
- 보간을 안해주면 아래처럼 됨
- ![](https://images.velog.io/images/minji-o-j/post/849418be-4fcd-448b-aefd-dfc01b739066/image.png)
- 보간은 짝수개 추천 (특히 2), scale (0.70~0.99(안전하게 가자)</code></pre><p>Downscale(always_apply=False, p=0.5, scale_min=0.699999988079071, scale_max=0.9900000095367432, interpolation=2)</p>
<pre><code>
## ElasticTransform (O)
- alpha: 이미지를 흩는다
- ![](https://images.velog.io/images/minji-o-j/post/8b4dfd11-5437-4656-868d-88f40b0ca0f2/image.png)
- alpha_affine, sigma: 이미지를 살짝 회전..?늘임 (이정도로 늘이면 안된다!!)
![](https://images.velog.io/images/minji-o-j/post/2391b2cf-37fe-4f16-ade5-05b4f0ff6393/image.png)
- border_mode=1 주변픽셀을 늘임
- 조금만 바꾸자..!!!</code></pre><p>ElasticTransform(always_apply=False, p=0.5, alpha=0.20000000298023224, sigma=3.359999895095825, alpha_affine=2.009999990463257, interpolation=1, border_mode=1, value=(0, 0, 0), mask_value=None, approximate=False)</p>
<pre><code>
## Equalize (O)
- 단 by_channels=False로!
- ![](https://images.velog.io/images/minji-o-j/post/b1da45b3-e12a-4a49-95d2-d73bb929d1a4/image.png)</code></pre><p>Equalize(always_apply=False, p=0.5, mode=&#39;cv&#39;, by_channels=False)</p>
<pre><code>
## Flip (X)
- horizontal/vertical 선택 불가함

## GaussianNoise (O)
- ![](https://images.velog.io/images/minji-o-j/post/dd5bf917-7f48-4bab-9227-5d888f96dddf/image.png)

</code></pre><p>GaussNoise(always_apply=False, p=0.5, var_limit=(0.0, 26.849998474121094))</p>
<pre><code>
## GridDistortion (O)
- 진짜 조금만...
- ![](https://images.velog.io/images/minji-o-j/post/e162f0c7-d3eb-42f7-b103-e7ee2443ef4f/image.png)</code></pre><p>GridDistortion(always_apply=False, p=0.5, num_steps=1, distort_limit=(-0.029999999329447746, 0.05000000074505806), interpolation=2, border_mode=0, value=(0, 0, 0), mask_value=None)</p>
<pre><code>
## HorizontalFlip (O)
- 좌우뒤집기</code></pre><p>HorizontalFlip(always_apply=False, p=0.5)</p>
<pre><code>
## HueSaturationValue(X)
## ISONoise(O)
- ![](https://images.velog.io/images/minji-o-j/post/9a8995e1-c66c-4559-9bcb-516c735451fe/image.png)
- 위의 사진보다 더 약하게 해야할듯</code></pre><p>ISONoise(always_apply=False, p=0.5, intensity=(0.05000000074505806, 0.12999999523162842), color_shift=(0.009999999776482582, 0.26999998092651367))</p>
<pre><code>
## ImageCompression
- ![](https://images.velog.io/images/minji-o-j/post/7f3455cb-7059-4df8-99f4-f1c63cc33e8b/image.png)
- 이렇게 많이 하면 안된다...
- pooling-unpolling 반복하는..느낌?</code></pre><p>ImageCompression(always_apply=False, p=0.5, quality_lower=56, quality_upper=100, compression_type=1)</p>
<pre><code>## InvertImg(X)
- ![](https://images.velog.io/images/minji-o-j/post/562a951d-24a8-48b9-a96f-125c5f20cd08/image.png)</code></pre>]]></description>
        </item>
        <item>
            <title><![CDATA[부스트캠프 AI Tech Week4 회고]]></title>
            <link>https://velog.io/@minji-o-j/%EB%B6%80%EC%8A%A4%ED%8A%B8%EC%BA%A0%ED%94%84-AI-Tech-Week4-%ED%9A%8C%EA%B3%A0</link>
            <guid>https://velog.io/@minji-o-j/%EB%B6%80%EC%8A%A4%ED%8A%B8%EC%BA%A0%ED%94%84-AI-Tech-Week4-%ED%9A%8C%EA%B3%A0</guid>
            <pubDate>Fri, 27 Aug 2021 14:45:03 GMT</pubDate>
            <description><![CDATA[<p>저번주는 과제를 하다가 , 이번주는 대회를 하다가 일일 기록을 따로 남기지 않았는데... 기억이 휘발되는 것 같다</p>
<p>이번주에 P Stage가 시작되었는데 멘토님이 말하신 Baseline의 중요성이 뭔지 깨달았다.
저번주에 이거 짜야하지 않을까요? 하면 어차피 제공해주지 않나요? 라고 다들 생각했었는데 Baseline이 금요일에 공개될줄이야!!</p>
<hr>
<p>팀원분들이 다들 너무 잘하셔서... 시작부터 내 역할이 애매해질까봐 걱정되어서 초반에 내가 생각한 나의 역할은 EDA를 열심히 해서 아이디어를 보태는 것이었다.</p>
<h2 id="eda">EDA</h2>
<ul>
<li><a href="http://118.67.133.182:8888/notebooks/EDA_train_minji.ipynb">EDA</a> </li>
<li>EDA를 하면서 개인적으로 느낀점과 아이디어를 작성해보았다. </li>
<li>데이터를 sample로 뽑아서 보면서 이상한 것들이 있어서 팀원 3명이 나눠서 한명당 900*7개의 data에 대해 확인해보기로 했다. 내가 본 부분에서는 노인분들이 많았고, data를 보면서 어떤식으로 문제가 생길 것 같은지, 어떤식으로 문제를 해결할 수 있을지 생각해보았다.</li>
</ul>
<h2 id="얻은-idea">얻은 Idea</h2>
<ul>
<li>기본적인 EDA로도도 확인할 수 있었을 만큼 문제가 명확했다. 이와 관해서는 기존의 잘 알려진 문제 해결 방법을 이용해보기(weight) 이외에도 다각도로 접근이 필요 할 것 같았다.</li>
</ul>
<h4 id="gender">Gender</h4>
<ul>
<li>이와 관련해서는 다른 것들에 비해 구분이 잘 될것이라고 생각했다. </li>
</ul>
<h4 id="age">Age</h4>
<ul>
<li><p>50~60대의 나이 경계가 애매하다고 생각하였고, 특히 60대 이상은 60세밖에 없어서 이를 잡아내는 것이 어려울 것 같다고 생각하였다.</p>
<ul>
<li>60미만과 60이상의 구분을 위해 나이를 Regression 문제로 접근해보기(데이터가 너무 적지 않나 고민됨)</li>
<li>Cutmix, 단 같은 label(60대 남성 마스크 제대로...)을 가진 사람끼리 해야하지 않을까?</li>
<li>55~59 나이대 중 절반정도를 60대로 라벨 변경하여 data imbalance 해소<ul>
<li>데이터를 모두 봤을때 굉장히 노안..(누가봐도 80세같은데 56세?)인분들이 많았다..</li>
</ul>
</li>
</ul>
</li>
<li><p>성별과 연관이 있지 않을까? 육안으로 봤을때 헤어스타일이 영향을 줄 것 같음. 할머니들은 머리가 짧고 할아버지들은 머리가 대부분 없으셔서.. 영향을 미치지 않을까 싶었음</p>
<h4 id="mask">Mask</h4>
<ul>
<li>색상이 너무나도 다양해서 흑백으로 mask분류?<ul>
<li>f1 score가 예상외로 제일 안나오고있음..!</li>
</ul>
</li>
</ul>
</li>
</ul>
<p>등등.. 더있지만 생략하겠다(칸반보드 참조)
다행히도 내가 낸 아이디어 중 괜찮다고 평가받은 것이 있어서 시도중인 것들이 있다.</p>
<h2 id="얼굴-자르기">얼굴 자르기</h2>
<ul>
<li>강렬한 배경!!(빨간글씨...) 등에 영향을 받을 것 같아서 얼굴을 자르기로 시도해보았다. 근데 아직 valid set에 augmentation이 적용되는 문제가 해결되지 않아서 ... 보완해야할듯?</li>
<li>albumentation 문서를 읽고 쓸만한 것을 정리중이다.</li>
<li>머리카락과 주변 환경들을 약간씩 넣을때가 성능이 더 좋다. 아무래도 얼굴이 완전하게 잘리지 않아서 그런 것 같다.</li>
</ul>
<h2 id="협업-방법">협업 방법</h2>
<ul>
<li>팀이 다음주가 아니라 이번주 금부터로 급하게 바뀌어서 아직은 엑셀로 공유하고, 슬랙으로 공유중이다.</li>
<li>각자 하고있는것들이 공유가 되지 않아 칸반보드 작성을 의무화(?) 하는 것이 좋을 것 같다.</li>
</ul>
<h2 id="느낀점">느낀점</h2>
<ul>
<li>코드를 뜯어본 것은 처음인 것 같다. 팀원이 파이토치 베이스라인 코드를 수정해서 데이터에 맞게 새로 만들어주셨는데 나의 미천한 코딩실력... 노력해야겠다.. 라이브로 몇몇분들은 협업하시기도 하는데 나는 아직 가져다가 아이디어 관련해서 수정하는 정도..?? 그마저도 생각만큼 잘 안되어서 주피터셸로 실행해보고 -&gt; 확인... 뭐 이러다보니 시간이 많이 걸리는 것 같아서 미안하다..</li>
<li>그래도 좋은점은 baseline 리팩토링 vs 계속 새로운 아이디어 실험 이렇게 팀이 어느정도 나눠진 것 같아서 부담이 적은 것 같다.</li>
<li>처음에 p stage 시작할 때 1인분을 하는게 목표였는데..!! 등수와 내가 그냥 시도해보고 싶은 것들? 사이에서 고민이 되고있다. 그래도 몇몇것들은 성능이 올라가서 다행이다.</li>
</ul>
]]></description>
        </item>
        <item>
            <title><![CDATA[RuntimeError: CUDA error: device-side assert triggered]]></title>
            <link>https://velog.io/@minji-o-j/RuntimeError-CUDA-error-device-side-assert-triggered</link>
            <guid>https://velog.io/@minji-o-j/RuntimeError-CUDA-error-device-side-assert-triggered</guid>
            <pubDate>Wed, 25 Aug 2021 17:20:55 GMT</pubDate>
            <description><![CDATA[<p><code>RuntimeError: CUDA error: device-side assert triggered</code></p>
<p>Yolov5 facedetect 하던 중 나옴</p>
<hr>
<h3 id="모델을-cpu로-바꿔보자">모델을 cpu로 바꿔보자</h3>
<pre><code class="language-python">device = torch.device(&#39;cpu&#39;)</code></pre>
<p><code>IndexError: index 85 is out of bounds for dimension 0 with size 85</code></p>
<p>오류가 자세해진다!
들어가서 해결하면 됨</p>
]]></description>
        </item>
        <item>
            <title><![CDATA[matplotlib description 없애기]]></title>
            <link>https://velog.io/@minji-o-j/matplotlib-description-%EC%97%86%EC%95%A0%EA%B8%B0</link>
            <guid>https://velog.io/@minji-o-j/matplotlib-description-%EC%97%86%EC%95%A0%EA%B8%B0</guid>
            <pubDate>Mon, 23 Aug 2021 10:26:10 GMT</pubDate>
            <description><![CDATA[<p><img src="https://images.velog.io/images/minji-o-j/post/3dfd83cb-a1f0-48c5-a1f0-1a48bbb3fae4/image.png" alt=""></p>
<p>그래프 위에
<code>&lt;matplotlib.axes._subplots.AxesSubplot at 0x7f64677937c0&gt;</code>
이런걸 없애려면...</p>
<blockquote>
<p>그래프 출력 마지막 line에 <code>;</code>를 찍는다.</p>
</blockquote>
<h2 id="예시">예시</h2>
<p>change</p>
<pre><code class="language-python">sns.histplot(train_df, x = &#39;name&#39;)</code></pre>
<p>into</p>
<pre><code class="language-python">sns.histplot(train_df, x = &#39;name&#39;);</code></pre>
]]></description>
        </item>
        <item>
            <title><![CDATA[jekyll 오류 해결 (부제: github 블로그 만들기)]]></title>
            <link>https://velog.io/@minji-o-j/jekyll-%EC%98%A4%EB%A5%98-%ED%95%B4%EA%B2%B0</link>
            <guid>https://velog.io/@minji-o-j/jekyll-%EC%98%A4%EB%A5%98-%ED%95%B4%EA%B2%B0</guid>
            <pubDate>Sat, 21 Aug 2021 07:42:53 GMT</pubDate>
            <description><![CDATA[<p>깃허브 블로그 만드는데 오류가 너무 많이 나서 쓰는 글</p>
<p>전체적인 flow는 <a href="https://theorydb.github.io/envops/2019/05/03/envops-blog-github-pages-jekyll/">여기</a>와 <a href="https://honbabzone.com/jekyll/start-gitHubBlog/#step-2-gitblog%EC%99%80-jekyll">여기2</a>블로그를 참조했는데 설명과는 다르게 오류가 너무 많이나서...</p>
<hr>
<p>우선 다 설치한 후 실행 명령어는...</p>
<pre><code>jekyll serve</code></pre><hr>
<h2 id="❌-bundler-could-not-find-compatible-versions-for-gem-bundler">❌ Bundler could not find compatible versions for gem &quot;bundler&quot;</h2>
<pre><code>C:\Users\minji\Documents\GitHub\paper_review&gt;bundle exec jekyll serve
Bundler could not find compatible versions for gem &quot;bundler&quot;:
  In Gemfile:
    bundler (~&gt; 2.1.4)

  Current Bundler version:
    bundler (2.2.26)

Your bundle requires a different version of Bundler than the one you&#39;re running, and that version could not be found.</code></pre><h3 id="❕-해결-방법">❕ 해결 방법</h3>
<pre><code>C:\Users\minji\Documents\GitHub\paper_review&gt;gem install bundler:2.1.4</code></pre><pre><code>C:\Users\minji\Documents\GitHub\paper_review&gt;bundle _2.1.4_ update</code></pre><hr>
<h2 id="❌-jekyll-420---please-append---trace-to-the-serve-command">❌ Jekyll 4.2.0   Please append <code>--trace</code> to the <code>serve</code> command</h2>
<pre><code>                    ------------------------------------------------
      Jekyll 4.2.0   Please append `--trace` to the `serve` command
                     for any additional information or backtrace.
                    ------------------------------------------------</code></pre><h3 id="❕-해결-방법-1">❕ 해결 방법</h3>
<pre><code>C:\Users\minji\Documents\GitHub\paper_review&gt;bundle exec jekyll serve --trace</code></pre><hr>
<h2 id="❌-cannot-load-such-file----webrick">❌ cannot load such file -- webrick</h2>
<pre><code>C:/Ruby30-x64/lib/ruby/gems/3.0.0/gems/jekyll-4.2.0/lib/jekyll/commands/serve/servlet.rb:3:in `require&#39;: cannot load such file -- webrick (LoadError)</code></pre><h3 id="❕-bundle-add-webrick">❕ bundle add webrick</h3>
<p>를 하면 해결된다고 하지만... (보통은...)
++ 수정 이건 오타 낸거였음 webric아니고 webrick가 맞다..</p>
<h3 id="❌-could-not-find-gem-webric-x64-mingw32">❌ Could not find gem &#39;webric x64-mingw32&#39;</h3>
<pre><code>C:\Users\minji\Documents\GitHub\paper_review&gt;bundle add webric
Fetching gem metadata from https://rubygems.org/..........
Fetching gem metadata from https://rubygems.org/.
Could not find gem &#39;webric x64-mingw32&#39; in any of the gem sources listed in your
Gemfile.</code></pre><h3 id="❕-설치">❕ 설치</h3>
<pre><code>C:\Users\minji\Documents\GitHub\paper_review&gt;gem install webrick</code></pre><p>아니면 </p>
<p><a href="https://rubygems.org/gems/webrick">https://rubygems.org/gems/webrick</a>
여기서 명령어로 버전 맞춰줘도 된다.</p>
<h3 id="❕-gem-버전-업데이트">❕ gem 버전 업데이트</h3>
<pre><code>C:\Users\minji\Documents\GitHub\paper_review&gt;bundle exec jekyll serve</code></pre><p>다시 build</p>
<pre><code>C:\Users\minji\Documents\GitHub\paper_review&gt;jekyll build</code></pre><h3 id="❕-다시-bundle-add-webric">❕ (다시) bundle add webric</h3>
<pre><code>C:\Users\minji\Documents\GitHub\paper_review&gt;bundle add webrick
Fetching gem metadata from https://rubygems.org/..........
Fetching gem metadata from https://rubygems.org/.
Resolving dependencies...
Fetching gem metadata from https://rubygems.org/..........
Fetching gem metadata from https://rubygems.org/.
...생략</code></pre><h2 id="✅-끝">✅ 끝!</h2>
<pre><code>C:\Users\minji\Documents\GitHub\paper_review&gt;bundle exec jekyll serve
Configuration file: C:/Users/minji/Documents/GitHub/paper_review/_config.yml
            Source: C:/Users/minji/Documents/GitHub/paper_review
       Destination: C:/Users/minji/Documents/GitHub/paper_review/_site
 Incremental build: disabled. Enable with --incremental
      Generating...
                    done in 1.352 seconds.
  Please add the following to your Gemfile to avoid polling for changes:
    gem &#39;wdm&#39;, &#39;&gt;= 0.1.0&#39; if Gem.win_platform?
 Auto-regeneration: enabled for &#39;C:/Users/minji/Documents/GitHub/paper_review&#39;
    Server address: http://127.0.0.1:4000/just-the-docs/
  Server running... press ctrl-c to stop.</code></pre><p>잘 실행된다</p>
]]></description>
        </item>
        <item>
            <title><![CDATA[부스트캠프 AI Tech Week3 회고]]></title>
            <link>https://velog.io/@minji-o-j/%EB%B6%80%EC%8A%A4%ED%8A%B8%EC%BA%A0%ED%94%84-AI-Tech-Week3-%ED%9A%8C%EA%B3%A0</link>
            <guid>https://velog.io/@minji-o-j/%EB%B6%80%EC%8A%A4%ED%8A%B8%EC%BA%A0%ED%94%84-AI-Tech-Week3-%ED%9A%8C%EA%B3%A0</guid>
            <pubDate>Fri, 20 Aug 2021 14:20:28 GMT</pubDate>
            <description><![CDATA[<h1 id="week-3">Week 3</h1>
<h2 id="1-강의-복습-내용">1) 강의 복습 내용</h2>
<p>블로그에 따로 정리하지 않고 Noteshelf에 정리
(DL basic부터 복습차원에서 블로그에 다시 정리중입니다)</p>
<ul>
<li>Pythorch<ul>
<li>한번 다시 배워보고싶다라고 생각만했는데 정말 도움이 많이 되었다.</li>
<li>특히 기본적인 것부터 잘 알려주셔서!! </li>
<li>응용하는 노력이 필요할것같다. 아직 이론만배움</li>
<li>주말에 피어세션 숙제 하면서 적용해보기</li>
<li>과제 하는 것이 인강으로 배웠던 부분을 적용할 수 있어서 좋았다</li>
</ul>
</li>
</ul>
<h2 id="2-과제-수행-과정--결과물-정리">2) 과제 수행 과정 / 결과물 정리</h2>
<h3 id="필수과제">필수과제</h3>
<ul>
<li><p>필수과제가 <strong>역대급</strong> 이었다. 정말.... 너무 길고... 파이토치를 본격적으로 공부 해본적은 처음이라서 정말 오래걸린 것 같다. <del>새벽3-5시에 들어가도 팀원들이 많이 들어와있다!! ㅋㅋㅋ</del></p>
</li>
<li><p>2번의 맨 마지막거를 오류 해결을 못하고 제출했다... 그래도 나머지를 다한 나를 칭찬한다.(?)</p>
</li>
<li><p>뉴스 데이터는 오늘 해설강의를 들었으니... 마지막거는 주말에 하자 ㅎㅎ(할것 +1)</p>
</li>
</ul>
<h3 id="선택과제">선택과제</h3>
<ul>
<li>오히려 필수과제보다 쉬웠다..!! 실행시간이 오래 걸리는 것 빼고는..</li>
<li>주석이 너무 대충 달려있어서 아쉬웠다. (데이터가 다른데 앞에 있는 주석 복사 등..)</li>
</ul>
<h2 id="3-피어세션-정리">3) 피어세션 정리</h2>
<p><a href="https://github.com/Boostcamp-AI-Tech-1-15">팀 깃허브</a>
<a href="https://github.com/Boostcamp-AI-Tech-1-15/ddobokki_log/tree/main/%ED%9A%8C%EC%9D%98%EB%A1%9D">팀 회의록</a></p>
<ul>
<li>이번주 한 것<ul>
<li>강제로 복습 질문 만들기로 정함(일요일까지)</li>
<li>화요일 알고리즘 발표<ul>
<li>다들 코드를 깔끔하게 잘 짜시고... 코딩 컨벤션 등 몰랐던 것들을 많이 배우게 되었다.</li>
</ul>
</li>
<li>수요일 멘토링</li>
<li>목요일(X) - 병원가느라 빠지게 되었다.</li>
<li>금요일 - 논문 자료 관리 및 level 1이 끝나고도 계속 진행할지 등 정함.<ul>
<li>저녁에도 계속되는 회의... 다음주 할것과 앞으로 방향까지 정함(회의록 참고)</li>
</ul>
</li>
</ul>
</li>
</ul>
<h2 id="4-학습-회고">4) 학습 회고</h2>
<h3 id="이번주-한-주-점수">이번주 한 주 점수</h3>
<p>★★★☆☆</p>
<ul>
<li>아무래도 과제하느라 시간을 많이 뺏긴점은 아쉬움.</li>
<li>병원 가느라 피어세션때 발표 못한것도 아쉬움(아무때나 하겠음)</li>
<li>그럼에도 불구하고 문서 찾으면서 과제 열심히 했음!!</li>
</ul>
<h3 id="이번주-한-주동안-어떤부분이-성장했나요">이번주 한 주동안 어떤부분이 성장했나요?</h3>
<ul>
<li>DL 부분 복습 시작한 것</li>
<li>모르는 부분을 계속 질문함</li>
<li>파이토치 공부하고싶었던 부분을 알게됨</li>
</ul>
<h3 id="이번주-한-주-동안-스스로-아쉬웠던-부분은-무엇이고-어떻게-개선할-수-있을까요">이번주 한 주 동안 스스로 아쉬웠던 부분은 무엇이고, 어떻게 개선할 수 있을까요?</h3>
<ul>
<li>필수과제 마지막문제를 풀지 못한 것 --&gt; 강의 해설 들었으니 다시 풀어보기 및 내가 푼 것 비교</li>
<li>파이토치 baseline 짜지 못함 --&gt; 화요일까지 짜기로함</li>
</ul>
<h3 id="다음주-계획">다음주 계획</h3>
<ul>
<li>논문 요약 정리할 flatform 찾기</li>
<li>깃허브 issues 및 project 이용하기</li>
<li>각자 맡은 부분 정리해서 발표</li>
<li>등등!! </li>
<li>다음주는 미리 계획을 짜보자</li>
</ul>
]]></description>
        </item>
        <item>
            <title><![CDATA[03. Optimization (부제: 딥러닝 용어 정리)]]></title>
            <link>https://velog.io/@minji-o-j/03.-Optimization</link>
            <guid>https://velog.io/@minji-o-j/03.-Optimization</guid>
            <pubDate>Mon, 16 Aug 2021 15:18:51 GMT</pubDate>
            <description><![CDATA[<p><img src="https://images.velog.io/images/minji-o-j/post/61a27120-75dd-4935-957d-66ed63c30f77/image.png" alt="">
<span style='background-color: yellow'>최적화 용어에 대하여 명확한 이해가 필요하다!</span>
면접때 이 부분을 묻는 질문이 많이 나올 것이라고 예상된다.</p>
<h1 id="introduction">Introduction</h1>
<h2 id="gradient-descent">Gradient Descent</h2>
<p><img src="https://mlfromscratch.com/content/images/2019/12/gradient-descent-optimized--1-.gif" alt=""></p>
<ul>
<li>First-order iterative optimization algorithm for finding a local minimum of a differentiable function.</li>
<li>미분 가능한 함수의 <span style="color: red">local minimum(극소)</span>을 찾기 위해 1차 편미분을 반복적으로 하며 update하는 방법</li>
</ul>
<hr>
<h1 id="important-concepts-in-optimization">Important Concepts in Optimization</h1>
<h2 id="generalization">Generalization</h2>
<p><img src="https://images.velog.io/images/minji-o-j/post/158cb0d6-9368-49ee-952b-1a4810ec8741/image.png" alt=""></p>
<ul>
<li>목적: 일반화 성능을 높여보자!</li>
<li><strong>Generalization performance:</strong> Train/Test error간의 <span style="color: red">차</span></li>
</ul>
<blockquote>
<h3>Generalization performance가 좋다?</h3>

<ul>
<li>성능이 Train data와 비슷함을 보장한다!</li>
<li>하지만 <strong>training error가 높지만</strong> Generalization performance가 좋다면 성능을 보장할 수 없다.</li>
</ul>
</blockquote>
<blockquote>
<h4><span style='background-color: yellow'>따라서 Generalization performance가 좋다고 해서 모델의 성능이 좋다는 것을 의미하는 것은 아니다!</span><h4>
</blockquote>
<h2 id="under-fitting-vs-over-fitting">Under-fitting vs. over-fitting</h2>
<p><img src="https://images.velog.io/images/minji-o-j/post/489d74f3-50a8-49ad-b4b7-00694020c6e5/image.png" alt=""></p>
<ul>
<li>개념적인 이야기이기 때문에 판단 기준은 절대적이지 않음에 유의!</li>
</ul>
<h3 id="overfitting-과적합">Overfitting: 과적합</h3>
<ul>
<li>train data에서는 성능이 잘 나오지만, test data에는 잘 동작하지 않 는경우.<h3 id="underfitting-과소적합">Underfitting: 과소적합</h3>
</li>
<li>적게 학습되어서 train data도 잘 맞추지 못하는 경우.</li>
</ul>
<h2 id="cross-validation-k-fold">Cross validation (k-fold)</h2>
<h3 id="validation-set">validation set</h3>
<p><img src="https://images.velog.io/images/minji-o-j/post/9dc5d2ff-2d8c-4eb8-a946-cda4dffa19cc/image.png" alt=""></p>
<ul>
<li>보통 train data와 test data를 나눈 후 train data의 일부를 validation data로 둔다.</li>
<li>이 때 validation data를 hyperparameter tuning하기 위해 사용한다.</li>
</ul>
<h3 id="k-fold">k-fold</h3>
<p><img src="https://images.velog.io/images/minji-o-j/post/87380372-4150-4fba-bb51-cc74e1f59f76/image.png" alt=""></p>
<ul>
<li>test data를 제외한 data를 k개로 나누어서 k-1개를 train에, 1개를 validation 용도로 사용한다.</li>
<li>성능을 제대로 검증하기 위하여 validation set을 바꿔가면서 test하는 방법이다.</li>
<li>당연히 test는 사용하지 않는다.</li>
</ul>
<h2 id="bias-and-variance">Bias and Variance</h2>
<p><img src="https://images.velog.io/images/minji-o-j/post/572f1de7-292b-468d-a567-0416ee2a2867/image.png" alt=""></p>
<h3 id="bias">Bias</h3>
<ul>
<li>평균적으로 봤을 때 True Target(정답, 그림에서 빨간 부분)에 얼마나 접근했는지?를 나타낸다.</li>
<li>분산과 관계 없이, 점들의 평균치가 과녁 중앙에 가까이 갔으면 bias가 낮은 것이다.</li>
<li><strong>Low Bias</strong>: 평균적으로 봤을 때 True Target에 접근</li>
<li><strong>High Bias</strong>: True Target에서 많이 벗어남</li>
</ul>
<h3 id="variance">Variance</h3>
<ul>
<li>input을 넣었을 때 output이 얼마나 일관되게 나오는가?</li>
<li><strong>Low variance</strong>: 같은 곳에 찍힘, 일관적</li>
<li><strong>High variance</strong>: input에 비해 output이 비교적 크게 바뀜, <span style="color: red">overfitting 될 가능성 존재</span></li>
</ul>
<h3 id="bias-and-variance-tradeoff">Bias and Variance Tradeoff</h3>
<p><img src="https://images.velog.io/images/minji-o-j/post/25ea4732-a239-4394-bdaf-885c860a1431/image.png" alt="">
내 학습 data에 noise가 있을 경우...</p>
<ul>
<li>$t$: True Target(정답)<br><img src="https://images.velog.io/images/minji-o-j/post/506f60a7-8e15-4e61-a1b3-99d08ffb1086/image.png" alt=""></li>
<li>cost를 식을 <strong>bias$^2$, variance, noise</strong>로 풀어 쓸 수 있다.</li>
<li>하지만 bias와 variance는 <strong>trade-off</strong> 관계이다.</li>
<li>따라서 이 모두를 줄이기는 힘들다...!!</li>
</ul>
<h2 id="bootstrapping">Bootstrapping</h2>
<p><a href="https://learningcarrot.wordpress.com/2015/11/12/%EB%B6%80%ED%8A%B8%EC%8A%A4%ED%8A%B8%EB%9E%A9%EC%97%90-%EB%8C%80%ED%95%98%EC%97%AC-bootstrapping/">참조</a></p>
<h2 id="bagging-and-boosting">Bagging and boosting</h2>
]]></description>
        </item>
        <item>
            <title><![CDATA[02-2. MLP (Multi Layer Perceptron)]]></title>
            <link>https://velog.io/@minji-o-j/02-2.-MLP</link>
            <guid>https://velog.io/@minji-o-j/02-2.-MLP</guid>
            <pubDate>Mon, 16 Aug 2021 15:14:26 GMT</pubDate>
            <description><![CDATA[<p><a href="https://velog.io/@minji-o-j/02-1.-Neural-Networks">이 글</a>과 이어집니다!</p>
<!--![](https://images.velog.io/images/minji-o-j/post/105472ae-4c00-40b7-97b5-5eac1ef0a3cc/image.png)-->

<hr>
<h1 id="multi-layer-perceptron">Multi Layer Perceptron</h1>
<ul>
<li>선형 변환은 층을 쌓아도 행렬곱 형태가 되어서, 다시 $Wx+b$형태가 된다.</li>
<li>따라서 Activation Function 등을 이용하여 비선형변환 ($p$)를 해주어야 한다.</li>
</ul>
<p><img src="https://images.velog.io/images/minji-o-j/post/f361e78d-096c-43c7-838c-45101a075df1/image.png" alt=""></p>
<ul>
<li>다층 퍼셉트론 (MLP)는 은닉층마다 <code>선형, 비선형</code> 변환을 수행하는 다층의 인공 신경망을 의미한다.</li>
</ul>
<hr>
<h2 id="loss-function">Loss function</h2>
<blockquote>
<h3 id="key-points">Key Points</h3>
</blockquote>
<ul>
<li>각각의 Loss function들이 어떤 성질을 가지고 있나?</li>
<li>이 Loss function을 이용하면 왜 내가 원하는 결과를 얻을 수 있는가?</li>
</ul>
<h3 id="mse-mean-square-error---regression-task">MSE (Mean Square Error) - Regression Task</h3>
<p><img src="https://images.velog.io/images/minji-o-j/post/b58b9a1c-9d9a-4679-b175-e6adb5fc53a1/image.png" alt=""></p>
<h4 id="주의할-점">주의할 점</h4>
<ul>
<li><p>제곱을 하기 때문에, 차이가 크면 Outlier가 너무 커질 수도 있다.</p>
</li>
<li><p>제곱 대신에 절댓값을 취하면 <code>MAE(Mean Absolute Error)</code>가 된다.</p>
<ul>
<li><code>MAE</code>는 <code>MSE</code>에 비해 outlier에 덜 민감하다.</li>
</ul>
</li>
<li><p>outlier가 덜하다는 확신이 있을 경우, <code>MSE</code>가 더 좋다.</p>
<ul>
<li><del><code>MAE</code>는 median을 기준으로, <code>MSE</code>는 평균을 기준으로 data를 fitting 시키기 때문에 보통 <code>MSE</code>가 더 권장됨 <a href="https://www.kaggle.com/c/home-data-for-ml-course/discussion/143364">(출처)</a></del></li>
</ul>
</li>
<li><p><code>MSE</code>는 손실함수로 쓰이고 <code>MAE</code>는 회귀 지표로 쓰임</p>
</li>
</ul>
<br>

<h3 id="ce-cross-entropy---classification-task">CE (Cross Entropy) - Classification Task</h3>
<p><img src="https://images.velog.io/images/minji-o-j/post/b9e92d4a-2a28-4925-80f0-45ddaf680e43/image.png" alt=""></p>
<ul>
<li><p>Classification task에서 보통 output은 <code>One-hot Encoding</code>되어있다.</p>
<ul>
<li>ex) 10개의 class, dog가 찾아진 경우 dog만 1, 나머지는 0</li>
</ul>
</li>
<li><p>따라서 cross entropy 식에서 $D$개의 $y_i^{(d)}$ 중에 유효한 값은 1개이다.</p>
</li>
<li><p>즉, <strong>정답에 해당하는 출력값만 키우는 것</strong>이 목적이다. <code>얼마나 더 키우냐?</code>는 중요하지 않고, 가장 큰 값만 고려되므로 just 크기만 하면 된다.</p>
<br>

</li>
</ul>
<h3 id="mle-maximum-likelihood-estimation---probabilistic-task">MLE (Maximum Likelihood Estimation) - Probabilistic Task</h3>
<p><img src="https://images.velog.io/images/minji-o-j/post/41870dc4-f6cc-40e4-8149-d7b55ad9b41c/image.png" alt=""></p>
<ul>
<li>output을 확률로 내보내는 모델에서 사용 (예측모델 등...)</li>
</ul>
]]></description>
        </item>
        <item>
            <title><![CDATA[02-1. Neural Networks]]></title>
            <link>https://velog.io/@minji-o-j/02-1.-Neural-Networks</link>
            <guid>https://velog.io/@minji-o-j/02-1.-Neural-Networks</guid>
            <pubDate>Mon, 16 Aug 2021 15:13:58 GMT</pubDate>
            <description><![CDATA[<h2 id="neural-network란">Neural Network란?</h2>
<ul>
<li>In Wikipedia...
<img src="https://images.velog.io/images/minji-o-j/post/637071ea-ea08-4348-ab6b-931efa779489/image.png" alt=""> </li>
<li><strong>시작</strong>은 뉴런을 모방했을 지도 몰라도, 요즘에 딥러닝에 사용되는 인공신경망은 다른 형태를 가짐<br>

</li>
</ul>
<h3 id="neural-network의-수학적-정의">Neural Network의 수학적 정의</h3>
<blockquote>
<p>Neural Networks are function approximators that stack affine transformations followed by nonlinear transformations.</p>
</blockquote>
<ul>
<li>연산이 반복해서 이루어짐!</li>
</ul>
<p><img src="https://images.velog.io/images/minji-o-j/post/2b53aee1-43e7-4ac3-b681-19c142abbbb4/image.png" alt=""></p>
<hr>
<h2 id="linear-neural-networks">Linear Neural Networks</h2>
<h3 id="정의">정의</h3>
<ul>
<li>Data $D$: $N$개의 $x,y$ 순서쌍<ul>
<li><img src="https://images.velog.io/images/minji-o-j/post/5ed6f08d-430d-467b-8e59-1860dd3e5181/image.png" alt=""></li>
</ul>
</li>
<li>Model: $x$ -&gt; $\hat{y}$의 mapping을 찾게 해주는 식, 여기서는 선형<ul>
<li><img src="https://images.velog.io/images/minji-o-j/post/05310374-f41e-4906-8db5-4072962169bb/image.png" alt=""> </li>
</ul>
</li>
<li>Loss: (정답 - 추정치) 오차 제곱의 평균 (MSE)<ul>
<li><img src="https://images.velog.io/images/minji-o-j/post/89e99f18-2866-48b4-a2cf-cac2478c6e48/image.png" alt=""></li>
</ul>
</li>
</ul>
<h4 id="우리의-목적-loss-최소화">우리의 목적: Loss 최소화</h4>
<ul>
<li>$w$와 $b$ 각각을 편미분하여, Loss가 작아지는 방향으로 update </li>
<li><img src="https://images.velog.io/images/minji-o-j/post/66fc3954-7ffd-4afb-bd45-97ab9c8f5a72/image.png" alt=""></li>
</ul>
<br>

<h3 id="그림으로-나타내보면">그림으로 나타내보면...</h3>
<p><img src="https://images.velog.io/images/minji-o-j/post/888e01b1-9799-4021-9ecd-a4eca067ac13/image.png" alt=""></p>
<ul>
<li>N차원을 M차원 model로 바꾸기 위해서는 행렬을 사용한다.<br>

</li>
</ul>
<h3 id="행렬을-곱하는-것은-어떤-의미를-갖는가">행렬을 곱하는 것은 어떤 의미를 갖는가?</h3>
<ul>
<li><strong>2개의 Vector Space간의 변환</strong><ul>
<li>선형성을 가지는 변환을 행렬로 표현하는 것</li>
<li>2가지 다른 차원(Vector Space)간의 선형 변환을 찾는 것<br>

</li>
</ul>
</li>
</ul>
<h3 id="좀-더-깊게-쌓아보면">좀 더 깊게 쌓아보면...</h3>
<ul>
<li><p>bias 생략된 그림
<img src="https://images.velog.io/images/minji-o-j/post/6e32b43a-a433-45f4-8246-eb1144b49090/image.png" alt=""></p>
</li>
<li><p>$W_2^TW_1^T$ 가 행렬곱으로 되어있기 때문에 단층 Neural Network와 다를 바가 없다!</p>
</li>
<li><p>따라서 이를 Nonlinear 함수 (Activation funcion)에 넣어준다.
<img src="https://images.velog.io/images/minji-o-j/post/364e1a1e-441d-40c9-8f28-140555cd0b44/image.png" alt=""></p>
</li>
<li><p>여러가지 Activation Function들
<img src="https://images.velog.io/images/minji-o-j/post/5e1c0e21-9172-4983-b8af-c3d003c8e160/image.png" alt=""></p>
</li>
</ul>
<br>

<h2 id="neural-network의-표현력">Neural Network의 표현력</h2>
<p><img src="https://images.velog.io/images/minji-o-j/post/39aadc63-ec7b-40ac-9be3-e04ecef962a6/image.png" alt=""></p>
<ul>
<li>Hidden layer가 1개 있는 Neural Network으로 우리가 일반적으로 생각할 수 있는 대부분의 continuous한 function들을 모두 표현할 수 있다. <strong><code>표현력이 크다</code></strong></li>
<li>표현력이 크지만, 어떻게 찾는지는 모른다</li>
<li>이런게 <em>어디엔가 있다</em> 이지, 내가 학습시킨 Neural Network가 그러하다 라고 할 수는 없음.</li>
</ul>
]]></description>
        </item>
        <item>
            <title><![CDATA[01. Deep Learning Historical Review]]></title>
            <link>https://velog.io/@minji-o-j/01.-Deep-Learning-Historical-Review</link>
            <guid>https://velog.io/@minji-o-j/01.-Deep-Learning-Historical-Review</guid>
            <pubDate>Mon, 16 Aug 2021 14:13:07 GMT</pubDate>
            <description><![CDATA[<h1 id="introduction">Introduction</h1>
<h2 id="ai-ml-dl-차이">AI, ML, DL 차이</h2>
<p><img src="https://images.velog.io/images/minji-o-j/post/05965a02-a107-40d5-b4b2-d37e3b32f8a7/image.png" alt=""></p>
<ul>
<li>AI가 ML과 DL을 포함하는 개념</li>
<li>자동 분류 등은 Machine Learning에 포함</li>
<li>Neural Network(NN)을 사용하는 것 부터 Deep Learning이라고 함</li>
</ul>
<p><br><br></p>
<h2 id="key-components-of-deep-learning">Key Components of Deep Learning</h2>
<h4 id="the-span-stylecolor12b886data-spanthat-the-model-can-learn-from">The <span style="color:#12b886">data </span>that the model can learn from</h4>
<ul>
<li>자연어, 코퍼스, 비디오, 개/고양이 image...</li>
<li><img src="https://images.velog.io/images/minji-o-j/post/0cc90175-e413-4894-81e4-2b6e6015b55d/image.png" alt=""></li>
<li>Data는 풀고자 하는 문제에 따라 다름<br>
#### The <span style="color:#12b886">model </span>how to transform the data
- ![](https://images.velog.io/images/minji-o-j/post/6ac583d4-fc81-4427-aceb-6c5769bb542e/image.png)

</li>
</ul>
<br>

<h4 id="the-span-stylecolor12b886loss-spanfunction-that-quantifies-the-badness-of-the-model">The <span style="color:#12b886">loss </span>function that quantifies the badness of the model</h4>
<ul>
<li>모델, data가 정해져 있을 때 모델을 어떻게 학습할지?</li>
<li>The loss function is a <strong>proxy</strong> of what we want to achieve<ul>
<li>loss function 값이 줄어든다고 해서 우리가 원하는 값을 항상 이룰 것이라는 보장은 없다.</li>
</ul>
</li>
<li>Regression Task<ul>
<li><img src="https://images.velog.io/images/minji-o-j/post/dc4e1070-efa8-4d26-92da-4f709594ecc2/image.png" alt=""></li>
</ul>
</li>
<li>Classification Task<ul>
<li><img src="https://images.velog.io/images/minji-o-j/post/897c378b-fa26-4c08-a85a-3d3ebb8b2ab9/image.png" alt=""></li>
</ul>
</li>
<li>Probabilistic Task<ul>
<li><img src="https://images.velog.io/images/minji-o-j/post/ea568b00-9c7a-49bb-8796-560318ce8ae6/image.png" alt=""></li>
</ul>
</li>
</ul>
<br>

<h4 id="the-span-stylecolor12b886optimization-algorithm-spanto-adjust-the-parameters-to-minimize-the-loss">The <span style="color:#12b886">(optimization) algorithm </span>to adjust the parameters to minimize the loss</h4>
<p><img src="https://optimization.cbe.cornell.edu/images/d/d6/1_-_2dKCQHh_-_Long_Valley.gif" alt=""></p>
<ul>
<li>Dropout</li>
<li>Early stopping</li>
<li>k-fold validation</li>
<li>Weight decay</li>
<li>Batch normalization</li>
<li>MixUp</li>
<li>Ensemble</li>
<li>Bayesian Optimization</li>
</ul>
<hr>
<h1 id="historical-review">Historical Review</h1>
<h3 id="2012---alexnet">2012 - AlexNet</h3>
<ul>
<li>Imagenet 대회에서 처음으로 딥러닝이 1등 함</li>
<li><img src="https://images.velog.io/images/minji-o-j/post/15475e05-fd3c-4836-835a-b2bdb8a291b9/image.png" alt=""></li>
</ul>
<br>

<h3 id="2013---dqn">2013 - DQN</h3>
<ul>
<li>Q-Learning을 딥러닝에 접목</li>
<li><img src="https://images.velog.io/images/minji-o-j/post/478ba999-83c7-427f-9c61-0a150c7ab8db/image.png" alt=""></li>
</ul>
<br>

<h3 id="2014---encoder--decoder">2014 - Encoder / Decoder</h3>
<ul>
<li><strong>NMT</strong>(Neural Machine Translation)을 풀기 위하여 등장 (단어의 연속 -&gt; 또 다른 단어의 연속으로)</li>
<li><img src="https://images.velog.io/images/minji-o-j/post/846a125e-9066-455b-8082-7fd91b945cd8/image.png" alt=""></li>
</ul>
<br>

<h3 id="2014---adam-optimizer">2014 - Adam Optimizer</h3>
<ul>
<li>결과가 잘 나옴.. <code>&quot;웬만하면&quot;</code></li>
<li><img src="https://images.velog.io/images/minji-o-j/post/f516a750-e709-49df-ab96-2596761a41b1/image.png" alt=""></li>
</ul>
<br>

<h3 id="2015---generative-adversarial-network-gan">2015 - Generative Adversarial Network (GAN)</h3>
<ul>
<li>Generator, Discriminator을 두고 서로 경쟁시켜서 <code>그럴듯한</code>결과를 만들어내는 기술</li>
<li><img src="https://images.velog.io/images/minji-o-j/post/6f8f81f3-2b6c-4b2e-be98-705795adbad9/image.png" alt=""></li>
</ul>
<br>

<h3 id="2015---residual-networks">2015 - Residual Networks</h3>
<ul>
<li>깊게 Neural Network를 쌓을 수 있게 해준 모델<ul>
<li>이전까지는 너무 깊으면 test에 잘 적용되지 않는 문제 있었음</li>
</ul>
</li>
<li><strong>ResNet</strong>에 등장</li>
<li><img src="https://images.velog.io/images/minji-o-j/post/d0aa8f91-6239-4812-9804-bb302866b373/image.png" alt=""></li>
</ul>
<br>

<h3 id="2017---transformer">2017 - Transformer</h3>
<ul>
<li><img src="https://images.velog.io/images/minji-o-j/post/5c8bfcf7-5985-4bc6-8871-412601a1bb09/image.png" alt=""></li>
<li>CNN, RNN 등의 대부분의 방법을 대체하면서 Vision(Vit)까지 적용되는 추세임</li>
</ul>
<br>

<h3 id="2018---bert">2018 - BERT</h3>
<ul>
<li><strong>fine-tuned NLP models</strong></li>
<li>큰 Data, 일반적 문장으로 Pre-training -&gt; 소수의 Data에 Fine-tuning</li>
<li><img src="https://images.velog.io/images/minji-o-j/post/b049cd0e-6f4f-4414-899c-660ea86110df/image.png" alt=""></li>
</ul>
<br>

<h3 id="2019---big-language-models">2019 - BIG Language Models</h3>
<ul>
<li>OpenAI의 GPT-3 : 1750억개의 parameter을 가지고 있음</li>
</ul>
<br>

<h3 id="2020---self-supervised-learning">2020 - Self Supervised Learning</h3>
<ul>
<li>학습 Data + unsupervised data</li>
<li><img src="https://images.velog.io/images/minji-o-j/post/3933e5c9-f0e0-464e-93d6-621b1f02a00b/image.png" alt=""></li>
</ul>
]]></description>
        </item>
        <item>
            <title><![CDATA[Velog 사용법]]></title>
            <link>https://velog.io/@minji-o-j/Velog-%EC%82%AC%EC%9A%A9%EB%B2%95</link>
            <guid>https://velog.io/@minji-o-j/Velog-%EC%82%AC%EC%9A%A9%EB%B2%95</guid>
            <pubDate>Mon, 16 Aug 2021 14:02:25 GMT</pubDate>
            <description><![CDATA[<h2>
  <span style="color:#12b886">Velog 글자 색 바꾸기</span>
</h2>

<p><span style="color:#12b886">#12b886</span></p>
<pre><code>&lt;h2&gt;
  &lt;span style=&quot;color:#12b886&quot;&gt;Velog 글자 색 바꾸기&lt;/span&gt;
&lt;/h2&gt;

&lt;span style=&quot;color:#12b886&quot;&gt;#12b886&lt;/span&gt;</code></pre><hr>
<h2 id="안되는-기능">안되는 기능</h2>
<h3 id="글자에-형광펜">글자에 형광펜</h3>
<ul>
<li>미리보기에서는 되지만 글 등록하면 안보임<pre><code>&lt;style&gt;
mark{
  font-weight:bold; 
  color:white;
  background-color:orange
  }
&lt;/style&gt;
</code></pre></li>
</ul>
<p><mark>글자 테스트 중입니다.</mark></p>
<h1>
  <mark>aa</mark>
</h1>

<h2 id="미리보기에서도-안됨">미리보기에서도 안됨</h2>
<p><span style="background_color:#12b886">글자 테스트 중입니다.</span>
```</p>
]]></description>
        </item>
        <item>
            <title><![CDATA[부스트캠프 AI Tech Week2 회고]]></title>
            <link>https://velog.io/@minji-o-j/%EB%B6%80%EC%8A%A4%ED%8A%B8%EC%BA%A0%ED%94%84-AI-Tech-Week2-%ED%9A%8C%EA%B3%A0</link>
            <guid>https://velog.io/@minji-o-j/%EB%B6%80%EC%8A%A4%ED%8A%B8%EC%BA%A0%ED%94%84-AI-Tech-Week2-%ED%9A%8C%EA%B3%A0</guid>
            <pubDate>Fri, 13 Aug 2021 14:29:26 GMT</pubDate>
            <description><![CDATA[<h1 id="week-2">Week 2</h1>
<h2 id="1-강의-복습-내용">1) 강의 복습 내용</h2>
<p>블로그에 따로 정리하지 않고 Noteshelf에 정리</p>
<ul>
<li><p>DL Basic</p>
<ul>
<li>1,2일차에는 괜찮았으나 3,4,5일차에는 강의 내용도 많고 어려워져서 이해하기 어려웠다</li>
</ul>
</li>
<li><p>Data Viz 1주차 강의</p>
<ul>
<li>DL Basic에 비해 교양수업을 듣는 느낌..(?)</li>
</ul>
</li>
</ul>
<h2 id="2-과제-수행-과정--결과물-정리">2) 과제 수행 과정 / 결과물 정리</h2>
<h3 id="필수과제">필수과제</h3>
<ul>
<li>이번에는 교수님이 코드와 해설을 다 제공해주셔서 과제를 &quot;제출&quot;하는데 어려움은 없었다. 하지만 제출하는거 이외에....... 내가 이해는 못하는것 같다!</li>
<li>내용 이해+파이토치 등 복합적으로 이루어져야하는데 한쪽에 구멍이 생긴듯... 다음주에 파이토치를 배워서 메워지길 기대한다</li>
</ul>
<h3 id="선택과제">선택과제</h3>
<ul>
<li>1번은 풀었지만, 그냥 하라고 한 것을 따라한 정도? 그마저도 답과 달랐다.(결과는 같았지만)</li>
<li>아무래도 내용을 이해하기 보다는 지령을 따라해서 그런듯..?</li>
<li>그래서 1.을 해보고 2, 3은 하지 않았다.  공부를 더 한 후에 도전해봐야 할 듯.</li>
</ul>
<h2 id="3-피어세션-정리">3) 피어세션 정리</h2>
<p><a href="https://github.com/Boostcamp-AI-Tech-1-15">팀 깃허브</a>
<a href="https://github.com/Boostcamp-AI-Tech-1-15/ddobokki_log/tree/main/%ED%9A%8C%EC%9D%98%EB%A1%9D">팀 회의록</a></p>
<ul>
<li>이번주 한 것<ul>
<li>정해진 강의 듣고 질문<ul>
<li>오전에 당일 분량 강의를 다 못들은 분들(나포함) 많아서... 질문이 원활하게 이뤄지지 않은 부분이 많았다</li>
<li>이번주에 특강때문에 개인 학습 시간이 부족해서 그런듯</li>
</ul>
</li>
<li><a href="https://github.com/Boostcamp-AI-Tech-1-15/algorithm_study">알고리즘 스터디</a><ul>
<li>아직 1문제라서 신박한 풀이?라는건 없었지만, 원활하게 이뤄지고 있는 것 같다.</li>
</ul>
</li>
<li>논문 읽기<ul>
<li>3줄 요약 발표를 했으나 내 논문은 이해했으나 다른 분들 발표한 내용이 어떠 느낌인지 이해하는데 어려움이 있었다.</li>
<li>3줄 요약+ 간단한 이미지 발표로 수정하여 다음주에는 더 이해가 잘 될듯?</li>
</ul>
</li>
<li>멘토링<ul>
<li>수요일 5:20 ~ 6:20</li>
<li>목요일 5:00 ~ 6:00</li>
<li>논문 발표 내용을 봐주셨고 질문받아주심</li>
<li>further Q에대한 답을 해주셨음</li>
<li>3주차 알고리즘 과제 내주심</li>
</ul>
</li>
</ul>
</li>
</ul>
<h2 id="4-학습-회고">4) 학습 회고</h2>
<h3 id="이번주-한-주-점수">이번주 한 주 점수</h3>
<p>★★★☆☆</p>
<ul>
<li>저번주보다는 높은 점수를 줬는데 좀 더 강의 이해를 한 것 같아서 높은 점수를 주었다.</li>
<li>강의 이해가 되지 않은 부분, 정리 밀림 등이있어서 별 2개 뺌</li>
</ul>
<h3 id="이번주-한-주동안-어떤부분이-성장했나요">이번주 한 주동안 어떤부분이 성장했나요?</h3>
<ul>
<li>평소 정리하고 싶었던 부분 (DL관련) 정리할 수 있어서 좋았다</li>
</ul>
<h3 id="이번주-한-주-동안-스스로-아쉬웠던-부분은-무엇이고-어떻게-개선할-수-있을까요">이번주 한 주 동안 스스로 아쉬웠던 부분은 무엇이고, 어떻게 개선할 수 있을까요?</h3>
<ul>
<li>목, 금요일 부분 강의 내용 이해에 어려움 존재</li>
<li>정리 밀림</li>
<li>공휴일 이용해서 정리 다 하기</li>
</ul>
<h3 id="다음주-계획">다음주 계획</h3>
<ul>
<li>다음주에 내가 모더레이터임</li>
<li>알고리즘(3문제) 푼 것 발표 및 깃허브 업로드</li>
<li>각자 맡은 논문 3줄 요약 및 그림 자료 준비</li>
<li>n-queens 1~5번 방법으로 풀기</li>
<li>다음주 파이토치 수업 들으면서 baseline 짜보기</li>
</ul>
]]></description>
        </item>
        <item>
            <title><![CDATA[부스트캠프 AI Tech Day 10]]></title>
            <link>https://velog.io/@minji-o-j/%EB%B6%80%EC%8A%A4%ED%8A%B8%EC%BA%A0%ED%94%84-AI-Tech-Day-10</link>
            <guid>https://velog.io/@minji-o-j/%EB%B6%80%EC%8A%A4%ED%8A%B8%EC%BA%A0%ED%94%84-AI-Tech-Day-10</guid>
            <pubDate>Fri, 13 Aug 2021 14:09:36 GMT</pubDate>
            <description><![CDATA[<h2 id="학습-내용">학습 내용</h2>
<h4 id="dl-basic">DL Basic</h4>
<ul>
<li><strong>9</strong> Generative models 1</li>
<li><strong>10</strong> Generative models 2</li>
</ul>
<h2 id="스페셜-피어세션">스페셜 피어세션</h2>
<ul>
<li>다른조 분들과 만남</li>
<li>다른조는 과제 코드를 하나하나 뜯어본다고 한다.</li>
</ul>
<h2 id="피어세션">피어세션</h2>
<ul>
<li><a href="https://github.com/Boostcamp-AI-Tech-1-15/ddobokki_log/blob/main/%ED%9A%8C%EC%9D%98%EB%A1%9D/210813.md">회의록</a></li>
<li>논문 요약시 다음주부터는 그림 넣기로 결정</li>
<li>팀 회고 진행</li>
</ul>
<h2 id="0813--master-class">0813  Master Class</h2>
<h3 id="소개">소개</h3>
<ul>
<li>최성준 교수님</li>
<li>서울대 박사 -&gt; kakao brain -&gt; 디즈니 -&gt; 고려대학교 교수</li>
</ul>
<h3 id="faq">FAQ</h3>
<ul>
<li>교수님께 인공지능이란?<ul>
<li>사람들이 무엇을 인공지능이냐고 묻는지..는알겠지만 교수님은 모르겠다. 데이터에서 보지 못한 무언가를 보는 것이 아닐까..</li>
</ul>
</li>
<li>CV NLP공부할 때 가장 기본이 되는 꼭 봐야하는 논문<ul>
<li>모르겠다.</li>
<li>힘든 시기에 딥러닝을 하고있다</li>
<li>논문이 매년 나온걸 따라가면 되었는데 지금 논문이 너무 많음....</li>
<li>개인적으로는 신경쓰지말고 다보자</li>
</ul>
</li>
<li>앞으로 유망할 딥러닝 세부 분야를 어떻게 찾아볼 수 있을까요?<ul>
<li>저도 찾아보고 싶다</li>
<li>학회 워크샵 포스터인 사람에게 물어보자</li>
</ul>
</li>
<li>아직까지 Transformer가 SOTA? 최근에 뜨는 기술 소개부탁<ul>
<li>제가 아는 한은 SOTA이지만 .. 부정확</li>
<li>비교적 뜨고있는 기술: 사람을 집어넣는 것? - RL, 이미지 분류를 하더라도 Human이 중간에 들어가서 Signal을 받아들이는 부분</li>
</ul>
</li>
<li>교수님은 논문을 어떤 방법을 읽으시는지?<ul>
<li>잘 안읽으심</li>
<li>Introduction: 어떤 생각을 가지고 연구를 시작하게 되었는지가 있어서 잘 보는 편</li>
</ul>
</li>
<li>로봇 관련된 분야 시작하게 된 계기<ul>
<li>학부 입학부터 관심이 있어서 들어갔었음.</li>
</ul>
</li>
<li>연구 할 때 어떻게? 개선점을 먼저 정하는지 or 시도하고 마는지<ul>
<li>개선할 점이 leaderboard는 아님 </li>
<li>모름..</li>
</ul>
</li>
<li>추천논문: Scaling Laws for Neural Language Models<ul>
<li>영상을 새로 찍는다면 이걸 넣지 않았을까?</li>
</ul>
</li>
<li>TF, pt 하나만 잘하는 사람 없다. 다잘해야함</li>
</ul>
<h2 id="회고">회고</h2>
<ul>
<li>오늘 강의 내용은 ㄹㅇ역대급이다 진짜 어렵다... 흑흑흑 똥멍청이임을 느끼고있다 막 이걸 하면 당연히 ~가된다는데 왜 당연한건지...?</li>
<li>스페셜 피어세션에서 마이크가 안되어서 슬펐음 😢</li>
<li>마스터클래스에서... 내가 올린 질문도 있었는데 (사실 질문 5개넘게 내가함) 교수님은 <del>천재라서</del> 이런걸 왜 궁금해하는지..?!!! 전혀 이해를 못하시는것 같아서 슬펐다..^^</li>
</ul>
]]></description>
        </item>
        <item>
            <title><![CDATA[부스트캠프 AI Tech Day 9]]></title>
            <link>https://velog.io/@minji-o-j/%EB%B6%80%EC%8A%A4%ED%8A%B8%EC%BA%A0%ED%94%84-AI-Tech-Day-9</link>
            <guid>https://velog.io/@minji-o-j/%EB%B6%80%EC%8A%A4%ED%8A%B8%EC%BA%A0%ED%94%84-AI-Tech-Day-9</guid>
            <pubDate>Thu, 12 Aug 2021 06:57:02 GMT</pubDate>
            <description><![CDATA[<h2 id="학습-내용">학습 내용</h2>
<h4 id="dl-basic">DL Basic</h4>
<ul>
<li><strong>7</strong> Sequential models - RNN</li>
<li><strong>8</strong> Sequential models - Transformer</li>
<li>필수과제 4</li>
<li>필수과제 5</li>
</ul>
<h2 id="피어세션--멘토링">피어세션 &amp; 멘토링</h2>
<ul>
<li><a href="https://github.com/Boostcamp-AI-Tech-1-15/ddobokki_log/blob/main/%ED%9A%8C%EC%9D%98%EB%A1%9D/210812.md">회의록</a></li>
</ul>
<h2 id="회고">회고</h2>
<ul>
<li>오늘 진짜 장난아니었다... 사실 강의 Transformer 인것부터 걱정했는데 특강-개인시간없음, 내용- 어려움 이라서ㅠㅠㅠ</li>
<li>게다가 오늘 오피스아워가 있었는데 이게 대체 무슨시간인거지!?? 싶었다 너무 어려워서..</li>
<li>최신 기술을 모르는 내가 잘못이겠지? 음.. 학부때 했어야 하는 그런 것들이 이제와서 보이는게 안타깝다 ㅠㅠ 지금부터라도 열심히해야지..</li>
</ul>
<h2 id="오피스아워">오피스아워</h2>
<ul>
<li>딥러닝 시작할 때 어떤 논문 위주로 시작하면 좋을지?<ul>
<li>MLP-&gt;CNN논문 list(RCNN-&gt;YOLO-&gt;Transformer) or NLP (RNN-&gt;LSTM-&gt;GRU-&gt;Transformer)</li>
<li>수학 assumption이 중요하기 때문에 잘 보기</li>
</ul>
</li>
<li>딥러닝에 대해 감이 안잡히는데 하나하나 이해보다 일단 해보는게 좋을까요?<ul>
<li>쉬운것부터 하나하나 해보며 이해하자</li>
<li>해봐야 안다.(모방은..제2의창조)</li>
</ul>
</li>
<li>공부한 것을 정리할 때 어떤 매체에 어떤 기준으로(날짜/항목 등) 정리하셨나요?<ul>
<li>엑셀(옛날에..)</li>
<li>심심할때 아이패드에 논문을..(?)</li>
<li>할게 없으면 대학원실에......논문을.......</li>
</ul>
</li>
<li>이해가 안되는 문제를 찾아볼 때 바로 질문 or 찾아보다가 질문?<ul>
<li>후자.. 전자는 빨리 배우지만 빨리 잊는다</li>
<li>최대한 시간 내에 많이 하자</li>
</ul>
</li>
<li>실제 현업에서는 어떠한 모델을 사용하는지?<ul>
<li>배포하는 정도? -&gt; 우리 컴퓨터에서 돌릴 수 있을 정도 (쉬운 모델)</li>
<li>큰 모델 research 위해서 Data Center(GPU) 구축하고 있음. 우리가 배우는 모델들은 많은 GPU를 요구</li>
</ul>
</li>
<li>Pytorch 익숙지 않으면 어떤거 공부?<ul>
<li>Pt tutorial</li>
</ul>
</li>
</ul>
]]></description>
        </item>
        <item>
            <title><![CDATA[리눅스 명령어]]></title>
            <link>https://velog.io/@minji-o-j/%EB%A6%AC%EB%88%85%EC%8A%A4-%EB%AA%85%EB%A0%B9%EC%96%B4</link>
            <guid>https://velog.io/@minji-o-j/%EB%A6%AC%EB%88%85%EC%8A%A4-%EB%AA%85%EB%A0%B9%EC%96%B4</guid>
            <pubDate>Wed, 11 Aug 2021 10:33:45 GMT</pubDate>
            <description><![CDATA[<h2 id="용량">용량</h2>
<ul>
<li><code>df -h</code>: 남은 용량 조회</li>
<li><code>du -h --max-depth=1</code> 디렉토리 용량만 확인</li>
<li><code>du -sh *</code>  디렉토리 및 파일 용량 확인 </li>
</ul>
<h2 id="파일-목록-확인">파일 목록 확인</h2>
<ul>
<li><code>ls -a</code> : 숨김파일을 포함하여 모든 파일의 목록 출력</li>
<li><code>ls -d</code> : 현재 디렉토리의 정보 출력</li>
<li><code>ls -R</code> : 하위 디렉토리의 목록까지 모두 출력</li>
<li><code>find ./ -name &quot;[검색조건]&quot;</code> 파일 검색<ul>
<li><code>find ./ -name &quot;._*jpeg&quot;</code> ._으로 시작하고 jpeg로 끝나는 파일 검색</li>
</ul>
</li>
</ul>
<h2 id="삭제">삭제</h2>
<ul>
<li><code>rmdir 디렉토리이름</code>: 디렉토리 삭제</li>
<li><code>rm -rf ~/.local/share/Trash/files/*</code> 휴지통 비우기</li>
<li><code>rm *</code> 디렉토리 내 파일 전부 삭제</li>
<li><code>find ./ -name &quot;[파일검색조건]&quot; -exec rm {}\;</code> 특정 파일 삭제<ul>
<li><code>find ./ -name &quot;._*&quot; -exec rm {}\;</code> ._으로 시작하는 파일 삭제</li>
</ul>
</li>
</ul>
<h2 id="gpu-사용량-확인">GPU 사용량 확인</h2>
<ul>
<li><code>nvidia-smi</code> GPU 사용량 확인</li>
<li><code>nvidia-smi -l</code> 1초마다 갱신</li>
</ul>
<h2 id="포트-사용자-확인">포트 사용자 확인</h2>
<p><code>lsof -n -i4TCP:포트번호</code> 포트 사용자 확인</p>
]]></description>
        </item>
    </channel>
</rss>