2022.03.04. openAI. LLM + RLHF의 아이디어인가보다. 0. Abstract- LLM의 크기를 늘여도 사람의 의도를 이해하는데 한계를 보인다. 거짓말, 해로운 말 등을 한다. (not aligned with user)- Human Feedback으로 유저와 align하게끔 finetuning 하는 법을 제시한다. 1. OpenAI API로 우리가 기대하는 모델 반응과 레이블을 작성 2. GPT-3 fine tune 3. 결과(들)을 ranking, human feedback으로 더욱 fine tune 4. Instruct GPT 완성.- 1.3B Instruct GPT > 175B GPT-3, 진실성 증가, 해로움 감소, 공개 NLP 데이터셋에서도 좋은 성능-..