<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>studying_tz.log</title>
        <link>https://velog.io/</link>
        <description>Studing TZ</description>
        <lastBuildDate>Tue, 28 Mar 2023 04:45:05 GMT</lastBuildDate>
        <docs>https://validator.w3.org/feed/docs/rss2.html</docs>
        <generator>https://github.com/jpmonette/feed</generator>
        <image>
            <title>studying_tz.log</title>
            <url>https://velog.velcdn.com/images/studying_tz/profile/55939aec-33a0-4eed-a2ed-2145a12534f7/image.jpeg</url>
            <link>https://velog.io/</link>
        </image>
        <copyright>Copyright (C) 2019. studying_tz.log. All rights reserved.</copyright>
        <atom:link href="https://v2.velog.io/rss/studying_tz" rel="self" type="application/rss+xml"/>
        <item>
            <title><![CDATA[Transfer learning]]></title>
            <link>https://velog.io/@studying_tz/transfer-learning</link>
            <guid>https://velog.io/@studying_tz/transfer-learning</guid>
            <pubDate>Tue, 28 Mar 2023 04:45:05 GMT</pubDate>
            <description><![CDATA[<p>Transfer learning이란 기존의 task에 맞게 이미 학습된(pre-trained)의 모델을 활용하여 다른 Task를 푸는 방법론이다.
주로 Image문제를 풀기위해 학습한 CNN네트워크를 활용하여 이미지 분류 혹은 다른 문제를 푼다.
개념은 이러하고, 이를 얼마나 Transfer하고 얼마나 learning할지에 따라 세부 방법론은 달라진다.</p>
<p><img src="https://velog.velcdn.com/images/studying_tz/post/044c2613-e448-4407-a80d-0f819f440c98/image.png" alt=""></p>
<ul>
<li>파인튜닝(fine-tuning) : 다운스트림 태스크 데이터 전체를 사용합니다. 다운스트림 데이터에 맞게 모델 전체를 업데이트합니다.</li>
<li>프롬프트 튜닝(prompt tuning) : 다운스트림 태스크 데이터 전체를 사용합니다. 다운스트림 데이터에 맞게 모델 일부만 업데이트합니다.</li>
<li>인컨텍스트 러닝(in-context learning) : 다운스트림 태스크 데이터의 일부만 사용합니다. 모델을 업데이트하지 않습니다.</li>
</ul>
<h3 id="in-context-learning">in-context learning</h3>
<ul>
<li>제로샷러닝(zero-shot learning) : 다운스트림 태스크 데이터를 전혀 사용하지 않습니다. 모델이 바로 다운스트림 태스크를 수행합니다.</li>
<li>원샷러닝(one-shot learning) : 다운스트림 태스크 데이터를 1 건만 사용합니다. 모델은 1건의 데이터가 어떻게 수행되는지 참고한 뒤 다운스트림 태스크를 수행합니다.</li>
<li>퓨샷러닝(few-shot learning) : 다운스트림 태스크 데이터를 몇 건만 사용합니다. 모델은 몇 건의 데이터가 어떻게 수행되는지 참고한 뒤 바로 다운스트림 태스크를 수행합니다.</li>
</ul>
]]></description>
        </item>
        <item>
            <title><![CDATA[스태킹 앙상블(Stacking Ensemble)]]></title>
            <link>https://velog.io/@studying_tz/%EC%95%99%EC%83%81%EB%B8%94-%EC%8A%A4%ED%83%9C%ED%82%B9</link>
            <guid>https://velog.io/@studying_tz/%EC%95%99%EC%83%81%EB%B8%94-%EC%8A%A4%ED%83%9C%ED%82%B9</guid>
            <pubDate>Tue, 20 Dec 2022 05:15:51 GMT</pubDate>
            <description><![CDATA[<p>전통적인 방법인 train학습, test예측 외에 test에서 예측된 값을 다시 train으로 쓰는 것.
예를 들어 SVM, LGBM, XGboost로 예측한 값들을 모아서, 최종 model의 train값으로 쓴다.
이때 overfitting의 이슈가 있어 실제로는 CV stacking ensemble을 많이 쓴다</p>
]]></description>
        </item>
        <item>
            <title><![CDATA[베이지안 최적화(Bayesian Optimization)]]></title>
            <link>https://velog.io/@studying_tz/%EB%B2%A0%EC%9D%B4%EC%A6%88-%EC%B5%9C%EC%A0%81%ED%99%94</link>
            <guid>https://velog.io/@studying_tz/%EB%B2%A0%EC%9D%B4%EC%A6%88-%EC%B5%9C%EC%A0%81%ED%99%94</guid>
            <pubDate>Mon, 19 Dec 2022 14:22:10 GMT</pubDate>
            <description><![CDATA[<p>다양한 하이퍼파라미터 튜닝 방법 중 베이지안 최적화에 대해 정리해본다.</p>
<p>Grid search: 시간이 너무 오래 걸림
Random search: Random하므로 최적값을 모름</p>
<p>베이지안 최적화는 사전정보를 활용해 미지의 함수를 찾아가는 과정이다.</p>
<p>사전정보는 surrogate model을 학습하며 acquisition fuction의 최대값을 찾아 그 포인트의 surrogate model을 업데이트한다.</p>
<p><img src="https://velog.velcdn.com/images/studying_tz/post/ba4e635f-95c0-4074-b054-b74b502f9f77/image.png" alt=""></p>
<p>위 그림의 설명을 더하면, </p>
<ol>
<li>t = 2일 때의 Acquisition Function이 최대화 되는 값은 t = 3 시점에서 새로 관찰할 점으로 들어가게 된다.</li>
<li>이에 따라, t = 3에서 새로 관찰한 함수값 주변의 파란 영역이 크게 줄어들며, 동시에 Acquisition Function 또한 업데이트 된다.</li>
<li>마찬가지로 t = 3의 Acquisition Function이 최대가 된 지점에서 t = 4의 새로운 관찰값이 생성되고, 그 주변의 파란 영역이 줄어들며 Acquisition Function이 다시 업데이트된다.</li>
<li>이러한 과정이 계속 반복되면서 추정값이 실제 목적 함수에 근사하게 되고, 근사한 함수에서 최종 최적값을 찾을 수 있다.</li>
</ol>
]]></description>
        </item>
    </channel>
</rss>