LLM

LLM

Sắp xếp theo: Bài viết mới nhất
Avatar

[LLM 101] Thử chạy Llama 3 trên Laptop cá nhân

77 2 0
2
Avatar

[LLM 101] Cài đặt kĩ thuật RAG sử dụng Hybrid Search, Embed Caching và Mistral-AI

50 0 0
2
Avatar

[LLM 101] Thử tạo bộ nhớ ngắn hạn cho LLM Agent sử dụng LangChain

52 1 0
3
Avatar

[LLM] Sử dụng RAGAs và LlamaIndex để đánh giá chất lượng RAG

48 0 0
2
Avatar

[LLM 101] Thảo luận các vấn đề về Finetune Large Language Models

272 1 1
  • Avatar
3
Avatar

Tối ưu hóa RAG cho dữ liệu có cấu trúc với Text2SQL

136 1 3
  • Avatar
  • Avatar
3
Avatar

[LLM 101 - Paper reading] SaulLM-7B: A pioneering Large Language Model for Law

136 0 0
2
Avatar

Sử dụng HyDE để cải thiện hiệu năng RAG cho LLM

271 2 3
  • Avatar
  • Avatar
2
Avatar

[LLM 101] Thử cài đặt Decomposed Low-Rank Adaptation (DoRA)

78 0 0
1
Avatar

Nâng cao kỹ năng prompting đi thôi!!!

349 1 0
6
Avatar

[LLM 101 - Paper reading] Large Language Models are Superpositions of All Characters: Attaining Arbitrary Role-play via Self-Alignment

82 0 0
3
Avatar

[LLM 101 - Paper reading] Tìm hiểu Corrective Retrieval Augmented Generation (CRAG)

193 0 0
3
Avatar

LLM 101 | FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness

61 0 0
2
Avatar

MiniCPM-V: Mang sức mạnh của Multimodal LLM ngang tầm GPT4-V lên thiết bị di động

269 4 2
  • Avatar
  • Avatar
6
Avatar

MiniCPM: Khai Phá Tiềm Năng Của Các Mô Hình Ngôn Ngữ Nhỏ (SLMs)

280 3 1
  • Avatar
7
Avatar

[LLM 101] Thảo luận về finetune model LLM sử dụng LoRA (Low-Rank Adaptation)

387 1 0
4
Avatar

Claude Sonnet 3.5 vs Gemini: Nên trải nghiệm nếu bạn đang cần một phương án khác ngoài GPT

183 0 0
1
Avatar

Tích hợp Function Calling vào hệ thống Chatbot.

82 0 0
2
Avatar

Tối đa hoá sức mạnh của LLM bằng việc sử dụng ReAct agent

325 0 0
6
Avatar

Những đột phá mới nhất trong Machine Learning (19/08 - 25/08/2024)

148 1 1
  • Avatar
3
Viblo
Hãy đăng ký một tài khoản Viblo để nhận được nhiều bài viết thú vị hơn.
Đăng kí