nlp 3

[논문 리뷰] 요약은 뽑는 거다 – MatchSum: Extractive Summarization as Text Matching, 내 첫 AI 논문

Extractive Summarization as Text Matchinghttps://arxiv.org/pdf/2004.08795.pdf MatchSum이라는 summarization model을 발표한 논문이고,제가 NLP 공부하면서... 아니 그냥 처음 읽은 AI 논문이에요.(chatgpt 나오기 진짜 한 달 전쯤? 이었음)진짜 일주일 내내 달달 읽었고,이걸로 뭔가 해보고 싶은데 나와 있는 코드는 없어서아무것도 모르는 조무래기 주제에 또 일주일 열심히 코드 구현도 해봤어요.MatchSum의 핵심 아이디어는 이거예요.요약은 좋은 문장을 고르는 게 아니라,원문과 가장 의미적으로 잘 맞는 문장 조합을 고르는 것.즉, 요약을 텍스트 매칭 문제로 본다는 것이죠.간단히 작동 구조를 정리하면,문서 D에서 일정 ..

인공지능 공부 2025.08.08

드디어 닉값하는 OpenAI: open weight model인 GPT-OSS 공개

– GPT-OSS, 진짜 'Open'의 시대가 오다 “OpenAI는 왜 Open이 아니죠?”GPT-2까진 공개됐지만, 그 이후로는 모두 폐쇄된 상업 모델만 보여주더니 ~~ 2025년 8월 6일 어제,OpenAI가 진짜 닉값을 시작했어요. ClosedAI라고 들으면서도 많이 쫄렸나 보다 ㅋ GPT-OSS 시리즈.OSS = Open Source Software,오픈웨이트 기반의 LLM 모델을 공식 발표했습니다 !!🔓 GPT-OSS: 두 가지 모델, 두 가지 크기모델명 파라미터수 성능 기준 특징 gpt-oss-120b117BGPT-4 mini 수준단일 80GB GPU에서도 실행 가능gpt-oss-2..

카테고리 없음 2025.08.07

[논문 리뷰] 구글 리서치가 밝힌 In-Context Learning의 원리: Learning without training: The implicit dyna

더보기 https://arxiv.org/html/2507.16003v1 Learning without training: The implicit dynamics of in-context learningAt a high-level, similar to [6], we train a simple transformer on instances of prompts of input-output pairs of the form (x1,h⁢(x1),…,xN,h⁢(xN),xquery)subscript𝑥1ℎsubscript𝑥1…subscript𝑥𝑁ℎsubscript𝑥𝑁subscript𝑥query(x_{1},h(xarxiv.org 대기업에서 엄청나게 큰 모델을 가져다가 구조화된 프롬프트만 맥여서 사용하는 게 거의 ..

인공지능 공부 2025.07.29