Tổng hợp các thuật ngữ AI thường gặp
JAX: một ngôn ngữ cho phép bạn viết code tính toán số học (giống NumPy) nhưng nó sẽ tự động biến code đó thành phiên bản siêu nhanh, có khả năng tính đạo hàm và chạy hiệu quả trên các phần cứng mạnh mẽ như GPU/TPU.
Keras: một thư viện mã nguồn mở thuộc framework phát triển các model machine learning viết bằng Python bởi Google và được tích hợp vào trong TensorFlow.
Large Language Model (LLM): một dạng AI, giống như GPT hay Gemini, được huấn luyện dựa trên hàng tỷ văn bản và nhiều nội dung khác để được dùng nhằm xử lý các tác vụ.
Machine Learning: Một chương trình hoặc hệ thống huấn luyện một model từ dữ liệu đầu vào. Các model đã huấn luyện có thể tạo ra những dự đoán từ những dữ liệu lấy từ nguồn tương tự như dữ liệu huấn luyện, nhưng các dữ liệu này model chưa từng thấy.
Multimodal – đa phương thức hoặc đa kiểu dữ liệu: các hệ thống có khả năng hiểu và xử lý thông tin từ nhiều loại dữ liệu khác nhau ( cả văn bản, hình ảnh, video, âm thanh,… ) cùng một lúc, giống như cách con người cảm nhận thế giới.
Neural network: một hệ thống machine learning được thiết kế bằng cách mô phỏng một cách dơn giản hóa não người, sử dụng nhiều lớp chứa các node liên kết đan xen nhau.
Offline inference – suy luận local: Một chuỗi những dự đoán có thể được cache lại để truy cập mà không cần mạng.
Personalisatuon: biến đổi các câu trả lời hay dự đoán của AI duwajwj vào dữ liệu và thói quen sử dụng của người dùng.
Prompt: Một câu hỏi hoặc câu lệnh đưa vào cho LLM để kích hoạt quá trình tạo ra phản hồi.
RAG – Retrieval augmented generation: Một kỹ thuật giúp cải thiện độ chính xác của các phản hồi của LLM bằng cách cung cấp thêm cho các LLM đã dược huấn luyện các thông tin trích xuất từ những nguồn, văn bản tin cậy đã kiểm chứng bởi con người.
Tokens: Để Ai xử lý văn bản, nó phải bẻ văn bản nhỏ ra thành những đơn vị gọi là token.
Tensor Processing Unit: các nhân xử lý được thiết kế để chạy các workload machine learning.
Transformer: một kiến trúc manjhg nơ ron để xử lý dữ liệu tuần tự bằng cách hiểu ngữ cảnh của nó. Đây là kiến trúc được các nhà nghiên cứu Google giới thiệu hồi năm 2017 và chính là một trong những cội nguồn quan trọng nhất của GenAI mà chúng ta biết bây giờ.
Unsupervised machine learning – học không giám sát: một model được thiết kế để tìm ra đặc tính của một tập dữ liệu không được gắn nhãn trước.
XLA: một trình biên dịch machine learning mã nguồn mở, còn được gọi là Accelerarated Linear Algebra – Tăng tốc đại số tuyến tính, được thiết kế để tối ưu hóa các model AI.
Zero-shot learning: trạng thái các model suy luận ra một dự đoán để hoàn thành một tác vụ mà nó chưa được huấn luyện trước đó.