본문 바로가기

LLM/LLM 논문 읽기3

📝 LLM 논문 읽기 #3 - BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 📌 논문 정보제목: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding저자: Jacob Devlin et al.출처: arXiv (📄 논문 PDF)게재일: 2018년 10월 11일, 최종 수정일 : 2019년 5월 24일인용 횟수: 126,945 회 (2025년 3월 기준)선정 이유: BERT 논문은 양방향 학습 개념을 명확히 설명하며 입문자에게 LLM의 기초를 이해하기 쉽게 제공하며, LLM 패러다임에 사전 학습과 미세 조정을 표준화해 이후 모델들의 성능과 활용성을 크게 높인 영향을 끼쳤기 때문에초록 (Abstract)BERT는 Bidirectional Encoder Representations from T.. 2025. 3. 25.
📝 LLM 논문 읽기 #2 - Attention Is All You Need 📌 논문 정보제목: Attention Is All You Need저자: Ashish Vaswani et al.출처: arXiv (📄 논문 PDF)게재일: 2017년 6월 12일, 최종 수정일 : 2023년 8월 2일 인용 횟수:  171,726회 (2025년 기준)선정 이유: 트랜스포머(Transformer) 모델을 소개한 것으로, 현대 LLM의 핵심 구조를 이해하는 데 필수적 생각되어 선정"Attention Is All You Need"는 2017년 Vaswani 외 여러 연구자가 발표한 논문으로, 자연어 처리(NLP) 분야에서 혁신적인 트랜스포머(Transformer) 모델을 처음 제안했습니다.이 논문은 기존 모델의 한계를 넘어서는 새로운 접근법을 제시하며, 이후 BERT, GPT 등 다양한 모델.. 2025. 3. 19.
📝 LLM 논문 읽기 #1 - A Survey of Large Language Models 📌 논문 정보제목: A Survey of Large Language Models저자: Zhao, Wayne Xin et al.출처: arXiv (📄 논문 PDF)게재일: 2023년 3월 31일인용 횟수: 2,165회 (2025년 기준)선정 이유: LLM을 처음 공부하는 사람들에게 좋은 입문서라 생각되어 선정https://arxiv.org/pdf/2303.18223📖 1. 논문의 개요 (Abstract)SLM → NLM → PLM → LLM 순으로 발전모델 크기가 커질수록 성능이 향상됨 (LLM 등장)LLM의 주요 연구 주제: 발전 과정, 핵심 기술, 응용, 성능 평가, 미래 방향🏗️ 2. 언어 모델의 발전 과정 (Introduction)🟠 1) 통계적 언어 모델 (SLM, Statistical .. 2025. 3. 11.