Tra cứu nhanh thuật ngữ AI bằng tiếng Việt thuần
Mỗi thuật ngữ: định nghĩa ngắn → ví dụ thật → khi nào dùng. Không dịch máy, không lan man.
✨ Bắt đầu từ đây
Những thuật ngữ nền tảng nên đọc trước nếu bạn mới làm quen với AI.
Trí tuệ nhân tạo (AI) là gì?
Lĩnh vực khoa học máy tính giúp máy mô phỏng năng lực tư duy, học tập và ra quyết định của con người.
LLM (Large Language Model) là gì?
Mô hình ngôn ngữ lớn — loại AI có thể hiểu và sinh văn bản như con người. ChatGPT, Claude, Gemini đều là LLM.
Token (LLM) là gì?
Đơn vị nhỏ nhất mà LLM xử lý — không phải là từ, mà là mảnh ghép của từ. Tokens quyết định giá API và giới hạn context.
Tất cả thuật ngữ
Không tìm thấy thuật ngữ nào
Thử bỏ bớt bộ lọc, hoặc gợi ý thuật ngữ bạn muốn được giải thích.
AI Agent là gì?
Hệ thống AI có thể tự lên kế hoạch, dùng công cụ, ra quyết định nhiều bước để hoàn thành nhiệm vụ — không chỉ trả lời câu hỏi.
AI Alignment là gì?
Lĩnh vực nghiên cứu đảm bảo AI hành động theo ý định và giá trị của con người — không lệch hướng khi mạnh hơn.
API (AI) là gì? Cách dùng API LLM
Cách lập trình viên gọi mô hình AI từ code — Claude API, OpenAI API, Gemini API hoạt động thế nào.
Chain of Thought (CoT) là gì?
Kỹ thuật prompt yêu cầu LLM 'suy nghĩ từng bước' trước khi trả lời, giúp tăng độ chính xác đáng kể với bài toán phức tạp.
Computer Vision là gì?
Lĩnh vực AI giúp máy 'nhìn' và hiểu nội dung ảnh, video — từ nhận diện khuôn mặt đến xe tự lái.
Context Window là gì?
Lượng văn bản tối đa mà LLM có thể 'nhớ' trong 1 lần xử lý. Quyết định bạn có thể đưa bao nhiêu thông tin vào prompt.
Deep Learning (Học sâu) là gì?
Nhánh của machine learning dùng mạng neural nhiều lớp để học từ dữ liệu phức tạp như ảnh, âm thanh, văn bản.
Diffusion Model là gì?
Loại mô hình AI sinh ảnh bằng cách dần khử nhiễu — đứng sau Midjourney, Stable Diffusion, DALL-E.
Embedding là gì?
Cách biểu diễn văn bản, ảnh hay bất cứ thứ gì thành vector số để máy tính hiểu được ý nghĩa.
Fine-tuning là gì?
Quá trình huấn luyện thêm cho mô hình AI có sẵn để nó giỏi hơn ở một tác vụ cụ thể.
Foundation Model là gì?
Mô hình AI lớn được train trên dữ liệu rộng, đa dụng — làm nền tảng để fine-tune cho nhiều task khác nhau.
Function Calling (Tool Use) là gì?
Khả năng cho LLM gọi hàm/API bên ngoài để truy xuất dữ liệu thật, không chỉ sinh text từ memory.
Generative AI là gì?
Loại AI không chỉ phân loại/dự đoán mà còn TẠO ra nội dung mới: văn bản, ảnh, video, code, âm nhạc.
GPU là gì? Vì sao AI cần GPU?
Card đồ họa — phần cứng tăng tốc tính toán song song, là 'xương sống' của mọi mô hình AI hiện đại.
Hallucination (Ảo giác AI) là gì?
Hiện tượng LLM tự tin đưa ra thông tin SAI sự thật — bịa số liệu, trích dẫn, sự kiện không có thật.
Inference (Suy luận AI) là gì?
Quá trình chạy mô hình AI đã train để trả lời user — quyết định chi phí và tốc độ khi đưa AI vào sản phẩm.
Jailbreak (AI) là gì?
Kỹ thuật lách qua các giới hạn an toàn của LLM để khiến nó làm điều bình thường nó từ chối.
LLM (Large Language Model) là gì?
Mô hình ngôn ngữ lớn — loại AI có thể hiểu và sinh văn bản như con người. ChatGPT, Claude, Gemini đều là LLM.
LoRA là gì?
Low-Rank Adaptation — kỹ thuật fine-tune model lớn tiết kiệm 100-1000× resource so với fine-tune toàn bộ.
Machine Learning (Học máy) là gì?
Phương pháp giúp máy tự học quy luật từ dữ liệu thay vì được lập trình từng bước.
MCP (Model Context Protocol) là gì?
Chuẩn mở do Anthropic công bố giúp LLM kết nối với tool, database, ứng dụng theo một giao thức thống nhất.
Multimodal (Đa phương thức) là gì?
AI có thể xử lý nhiều kiểu dữ liệu cùng lúc: văn bản, ảnh, audio, video — không chỉ text như LLM cũ.
Neural Network (Mạng neural) là gì?
Cấu trúc tính toán mô phỏng cách neuron trong não kết nối, là nền tảng của deep learning hiện đại.
NLP (Xử lý Ngôn ngữ Tự nhiên) là gì?
Nhánh AI giúp máy đọc, hiểu, sinh ngôn ngữ con người — từ Google Translate đến ChatGPT đều là NLP.
Prompt Engineering là gì?
Kỹ thuật thiết kế câu lệnh để mô hình AI hiểu đúng ý và trả lời chính xác hơn.
Quantization (Lượng tử hóa) là gì?
Kỹ thuật giảm độ chính xác số trong model AI để chạy nhanh hơn, tốn ít RAM hơn — đánh đổi chút accuracy.
RAG (Retrieval-Augmented Generation) là gì?
Kỹ thuật cho AI tra cứu tài liệu của bạn trước khi trả lời, giúp giảm bịa và trả lời sát thực tế.
RLHF là gì?
Reinforcement Learning from Human Feedback — kỹ thuật dùng phản hồi của con người để dạy LLM trả lời 'đúng ý' hơn.
System Prompt là gì?
Đoạn instruction 'cài đặt' cho LLM trước khi user nói chuyện — quyết định persona, format, giới hạn của AI.
Token (LLM) là gì?
Đơn vị nhỏ nhất mà LLM xử lý — không phải là từ, mà là mảnh ghép của từ. Tokens quyết định giá API và giới hạn context.
Training (Huấn luyện AI) là gì?
Quá trình dạy mô hình AI bằng cách cho xem hàng triệu/tỷ ví dụ và điều chỉnh tham số nội bộ.
Transformer là gì?
Kiến trúc neural network được giới thiệu năm 2017, là nền tảng đứng sau mọi LLM hiện nay (GPT, Claude, Gemini).
Trí tuệ nhân tạo (AI) là gì?
Lĩnh vực khoa học máy tính giúp máy mô phỏng năng lực tư duy, học tập và ra quyết định của con người.
Vector Database là gì?
Loại database chuyên lưu và tìm kiếm vector embedding nhanh, là nền tảng cho RAG và semantic search.
Thiếu thuật ngữ bạn cần?
Gửi gợi ý — chúng mình ưu tiên thêm thuật ngữ có nhiều người hỏi nhất.
Gợi ý thuật ngữ →