A large language model (LLM) is a language model notable for its ability to achieve general-purpose language generation and understanding (https://en.wikipedia.org/wiki/Large_language_model)
개요
- LLM이란 무엇인가? - 정의, 원리, 주요 모델, 적용 사례
- LLM의 중요한 기술인 vector database에 대한 소개 https://tge-data-web.nyc3.digitaloceanspaces.com/docs/Vector%20Databases%20-%20A%20Technical%20Primer.pdf
- 트랜스포머 작동 원리 https://osanseviero.github.io/hackerllama/blog/posts/random_transformer/
- 한줄짜리 Bash LLMs https://justine.lol/oneliners/
ChatGPT 잘쓰기
- 프롬프트 엔지니어링 가이드 https://news.hada.io/topic?id=12377
- 프롬프트 최적화 도구 https://news.hada.io/topic?id=12803
서비스
- GTP store https://chat.openai.com/gpts
- 여러 LLM을 하나의 API로 이용 https://github.com/Portkey-AI/gateway
- 카카오브레인 honeybee https://github.com/kakaobrain/honeybee
- PowerInfer (PC GPU 에서 모델 서빙) https://news.hada.io/topic?id=12458
- 애플의 멀티모달 LLM https://github.com/apple/ml-ferret
- 한국어 LLM KULLM https://github.com/nlpai-lab/KULLM
별도의 추가 데이터로 학습하기
- privategpt - 나의 데이터로 학습하기 https://github.com/imartinez/privateGPT
- researchgpt 논문 pdf 자료로 학습하기 https://github.com/mukulpatnaik/researchgpt
- 검색 증강 생성 (RAG) https://discuss.pytorch.kr/t/rag-1-2/3135?utm_source=geeknews
- 나만의 문서로 맞춤형 LLM 훈련하기 https://news.hada.io/topic?id=12530
- 생성 AI 모델, 정확성과 신뢰성 향상시키는 '검색 증강 생성(RAG)'은 무엇인가? : RAG 언급
- Advanced Retrieval-Augmented Generation: From Theory to LlamaIndex Implementation
UI 도구
- LibreChat - 도커컴포즈로 맥에 설치 가능, 모델 빌드 등 가능 https://docs.librechat.ai
- Jan - 오프라인 사용이 가능한 GUI https://github.com/janhq/jan
바이오분야
- GeneGPT: Augmenting large language models with domain tools for improved access to biomedical information Bioinformatics
기타
- CSV 뷰어 https://github.com/YS-L/csvlens
- 주피터 노트북의 단점을 보완한 노트북 Mariom https://news.hada.io/topic?id=12845
- 실시간 상호작용 이미지 생성 https://github.com/cumulo-autumn/StreamDiffusion
관련정보
Incoming Links #
Related Web Applications (WebApplication 0) #
Suggested Pages #
- 0.025 오석준
- 0.025 February 16
- 0.025 April 1
- 0.025 MEGA
- 0.025 April 4
- 0.025 Briefings in Bioinformatics
- 0.025 아주대학교
- 0.025 January 16
- 0.025
- 0.025
- More suggestions...