Một vấn đề dai dẳng là bộ nhớ và ngữ cảnh của các Mô hình Ngôn ngữ Lớn (LLM). Mặc dù LLM ngày càng thông minh và tương tác tốt hơn với dữ liệu, chúng vẫn dễ dàng quên. AI quên những gì bạn nói cách đó năm phút.
AI quên các sở thích của bạn. Sau nhiều lần trao đổi, AI quên “mục đích cốt lõi” của cuộc trò chuyện. Ví dụ, bạn nói không thích cà phê, nhưng vài lời nhắc sau, AI lại đề xuất espresso. Đây không phải là bộ nhớ giống con người.
Khoảng cách này đã thúc đẩy nhiều nghiên cứu và thử nghiệm. Làm thế nào để các tác nhân AI có bộ nhớ bền bỉ, giống con người? Làm thế nào để chúng ghi nhớ các sự kiện chính về người dùng trong thời gian dài và sử dụng chúng khi đưa ra quyết định? Làm thế nào để việc nói chuyện với AI giống như nói chuyện với một người thật?
Câu hỏi này đã dẫn đến nhiều phương pháp tiếp cận khác nhau. Chúng ta sẽ phân tích chi tiết các phương pháp này.
Phương Pháp Kỹ Thuật Lời Nhắc / Tinh Chỉnh (Fine-Tuned / Prompt Engineering)
Đây là một trong những cách thức ban đầu được thử nghiệm. Ý tưởng là đưa “bộ nhớ” vào bên trong lời nhắc (prompt) của mô hình. Điều này bao gồm việc tinh chỉnh mô hình bằng dữ liệu người dùng hoặc nối thêm lịch sử hội thoại dài vào lời nhắc.
Cơ chế hoạt động: Hệ thống duy trì ngữ cảnh hội thoại đang diễn ra bằng cách nối các tin nhắn trước đó vào mỗi lời nhắc mới. Một số triển khai sử dụng điều chỉnh hướng dẫn (instruction tuning) để dạy mô hình các hành vi bộ nhớ cụ thể. Các triển khai khác dựa vào học tập trong ngữ cảnh (in-context learning) bằng cách cung cấp lịch sử hội thoại như các ví dụ.
Phương pháp này đơn giản, nhanh chóng và hiệu quả cho các ngữ cảnh ngắn. Các khung công tác và nghiên cứu ban đầu đã dựa nhiều vào phương pháp này, đặc biệt trước khi các kiến trúc bộ nhớ tinh vi hơn xuất hiện.
- Ưu điểm:
- Dễ dàng triển khai mà không cần cơ sở hạ tầng bổ sung.
- Hoạt động tốt cho các trường hợp sử dụng nhỏ, một lần.
- Có thể kết hợp với điều chỉnh hướng dẫn (instruction tuning).
- Độ trễ bằng không cho việc truy xuất bộ nhớ.
- Nhược điểm:
- Trở nên đắt đỏ khi lời nhắc dài ra (chi phí token tăng vọt).
- Giới hạn cửa sổ ngữ cảnh khiến thông tin bị cắt đứt.
- Không mở rộng quy mô cho bộ nhớ dài hạn thực sự.
- Không có tổ chức ngữ nghĩa của thông tin.
Cơ Sở Dữ Liệu Vector Là Bộ Nhớ (Phương Pháp Dựa Trên RAG)
Sau đó xuất hiện phương pháp cơ sở dữ liệu vector, chịu ảnh hưởng nặng nề từ nghiên cứu Tạo Sinh Tăng Cường Truy Xuất (Retrieval-Augmented Generation – RAG). Các khung công tác như Zep, tích hợp Pinecone, và các công cụ như LangChain Memory đã dựa vào các embedding.
Cơ chế hoạt động: Mỗi lượt hội thoại, tài liệu, hoặc mẩu thông tin được chuyển đổi thành các vector đa chiều bằng các mô hình embedding (ví dụ: OpenAI’s text-embedding-ada-002 hoặc các mô hình mới hơn). Các vector này được lưu trữ trong các cơ sở dữ liệu chuyên dụng như Pinecone, Weaviate, hoặc Couchbase. Khi AI cần nhớ, nó chuyển đổi truy vấn hiện tại thành một vector và tìm kiếm các bộ nhớ đã lưu trữ có ngữ nghĩa tương tự nhất, sử dụng độ tương đồng cosine hoặc các thước đo khoảng cách khác.
Phương pháp này chịu ảnh hưởng lớn từ bài báo RAG nền tảng của Lewis et al. (2020) “Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks”. Bài báo này đã chứng minh việc kết hợp bộ nhớ tham số (mô hình) và bộ nhớ phi tham số (truy xuất) có thể cải thiện đáng kể hiệu suất trong các tác vụ chuyên sâu về kiến thức.
Các khảo sát toàn diện gần đây, như “A Comprehensive Survey of Retrieval-Augmented Generation” (2024), đã chỉ ra sự phát triển của RAG từ truy xuất đơn giản thành các hệ thống bộ nhớ tinh vi. Phương pháp này mang lại cho AI một thứ gần giống như “bộ nhớ có thể tìm kiếm được.”
- Ưu điểm:
- Truy xuất ngữ nghĩa: Nó tìm thấy các khái niệm ngay cả khi bạn diễn đạt chúng khác đi.
- Linh hoạt: Hoạt động trên các cuộc hội thoại, tài liệu và cơ sở kiến thức.
- Tích hợp tốt với các ngăn xếp AI hiện đại.
- Mở rộng quy mô cho lượng lớn dữ liệu phi cấu trúc.
- Nhược điểm:
- Truy xuất không phải lúc nào cũng chính xác; có thể nhận được nhiễu và kết quả không liên quan.
- Cần cắt tỉa/quản lý liên tục để tránh phình to.
- Truy xuất mang tính xác suất, không có cấu trúc, đôi khi bỏ sót các sự kiện quan trọng.
- Kém hiệu quả trong việc xử lý các mối quan hệ giữa các thực thể.
Cơ Sở Dữ Liệu Đồ Thị và Bộ Nhớ Dựa Trên Thực Thể (Entity-Based Memory)
Một nhánh nghiên cứu khác tập trung vào cơ sở dữ liệu đồ thị hoặc bộ nhớ kiểu quan hệ thực thể. Phương pháp này đã thu hút sự chú ý đáng kể từ giới học thuật, với nhiều triển khai và bài báo nghiên cứu đáng chú ý.
Cơ chế hoạt động: Thay vì lưu trữ các vector phẳng, các hệ thống này xây dựng đồ thị tri thức (knowledge graphs). Các nút (nodes) đại diện cho các thực thể (người, khái niệm, sự kiện), và các cạnh (edges) đại diện cho các mối quan hệ. Khi bạn nói với AI: “John là đồng đội của tôi và anh ấy thích Python,” hệ thống tạo các nút cho bạn, John, và Python, với các cạnh quan hệ như “teammate_of” và “prefers.” Truy xuất bộ nhớ liên quan đến việc duyệt đồ thị và suy luận mối quan hệ.
Nghiên cứu & Triển khai Chính:
- MemGPT: Công trình tiên phong của Packer et al. trong “MemGPT: Towards LLMs as Operating Systems” đã giới thiệu khái niệm coi LLM như hệ điều hành với quản lý bộ nhớ phân cấp, vượt ra ngoài cửa sổ ngữ cảnh đơn giản để có bộ nhớ bền bỉ.
- Zep: Nghiên cứu gần đây của nhóm Zep trong “Zep: A Temporal Knowledge Graph Architecture for Agent Memory” (2025) trình bày kiến trúc đồ thị tri thức thời gian của họ.
- mem0: Nhóm đã công bố “Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory” (2025), giới thiệu một kiến trúc bộ nhớ mới mẻ, tự động thu thập, tổ chức và truy xuất thông tin nổi bật từ các cuộc hội thoại đang diễn ra.
Hãy hình dung đây là việc biến các cuộc hội thoại thành một đồ thị tri thức, nơi AI có thể suy luận về các mối quan hệ, trình tự thời gian và các tương tác thực thể phức tạp.
- Ưu điểm:
- Tuyệt vời cho việc suy luận về con người, thực thể và các quy tắc.
- Mô hình hóa tốt hơn các mối quan hệ và ngữ cảnh giống con người.
- Xử lý tốt các khía cạnh thời gian (điều gì xảy ra khi nào?).
- Có cấu trúc và dễ đoán hơn so với tìm kiếm vector.
- Có thể nắm bắt các mối quan hệ phức tạp nhiều bước nhảy (multi-hop).
- Nhược điểm:
- Độ phức tạp tăng nhanh khi đồ thị mở rộng.
- Đòi hỏi nỗ lực lớn để giữ cho đồ thị chính xác và nhất quán.
- Khó tích hợp hơn vào các ngăn xếp phát triển hàng ngày.
- Việc bảo trì đồ thị trở nên tốn kém ở quy mô lớn.
- Việc trích xuất thực thể và xác định mối quan hệ có thể dễ bị lỗi.
- Độ phức tạp tăng lên khi số bước nhảy tăng.
Phương Pháp Tiếp Cận Lai (Hybrid Approaches): Kết Hợp Nhiều Loại Bộ Nhớ
Khi lĩnh vực này phát triển, các nhà nghiên cứu nhận ra rằng các loại thông tin khác nhau đòi hỏi các cơ chế lưu trữ và truy xuất khác nhau. Điều này dẫn đến sự phát triển của các kiến trúc lai (hybrid architectures) kết hợp nhiều phương pháp.
Cơ chế hoạt động: Các hệ thống này sử dụng các kho lưu trữ bộ nhớ khác nhau cho các loại thông tin khác nhau:
- Cơ sở dữ liệu vector để tìm kiếm ngữ nghĩa trên nội dung phi cấu trúc.
- Cơ sở dữ liệu đồ thị cho các mối quan hệ thực thể và kiến thức có cấu trúc.
- Kho lưu trữ khóa-giá trị (Key-value stores) cho các sự kiện và sở thích đơn giản.
- Cơ sở dữ liệu truyền thống cho dữ liệu có cấu trúc, có thể truy vấn được.
Một số bài báo học thuật đã khám phá các kiến trúc bộ nhớ đa phương thức (multi-modal memory), cho thấy các phương pháp lai thường vượt trội hơn các hệ thống đơn phương pháp trong các tác vụ đa dạng.
- Ưu điểm:
- Phương pháp tiếp cận tốt nhất của mọi thế giới—mỗi loại bộ nhớ được tối ưu hóa cho trường hợp sử dụng của nó.
- Phạm vi bộ nhớ toàn diện và mạnh mẽ hơn.
- Có thể xử lý hiệu quả cả thông tin có cấu trúc và phi cấu trúc.
- Hiệu suất tốt hơn trên các tác vụ bộ nhớ đa dạng.
- Nhược điểm:
- Tăng độ phức tạp của hệ thống.
- Nhiều thành phần cần duy trì và tối ưu hóa.
- Chi phí cơ sở hạ tầng cao hơn.
- Các vấn đề tiềm ẩn về tính nhất quán giữa các kho lưu trữ bộ nhớ.
Phương Pháp Cơ Sở Dữ Liệu Truyền Thống (The Traditional Database Approach)
Cuối cùng là công nghệ lâu đời nhất: cơ sở dữ liệu quan hệ (relational databases). Các Hệ thống Quản lý Cơ sở Dữ liệu Quan hệ (RDBMS) đã cung cấp năng lượng cho các ứng dụng trong hơn 50 năm, bao gồm mọi thứ từ các nền tảng truyền thông xã hội như Facebook đến các hệ thống ngân hàng. Chúng đáng tin cậy, hiệu quả và đã được thử nghiệm ở quy mô lớn.
Ý tưởng: Sử dụng cơ sở dữ liệu quan hệ cho việc lưu trữ bộ nhớ có cấu trúc, bền bỉ. Xây dựng lớp thông minh để AI có thể nâng cấp bộ nhớ ngắn hạn lên bộ nhớ dài hạn. Cung cấp cho các tác nhân quy tắc, sở thích, thực thể và sự kiện dưới định dạng hoạt động hiệu quả.
Cơ chế hoạt động: Các cơ sở dữ liệu SQL truyền thống lưu trữ bộ nhớ trong các bảng có cấu trúc với các lược đồ rõ ràng. Bộ nhớ ngắn hạn (các cuộc hội thoại gần đây) nằm trong một bảng, trong khi bộ nhớ dài hạn (sự kiện quan trọng, sở thích, quy tắc) được thăng cấp lên bộ nhớ vĩnh viễn. AI sử dụng các truy vấn SQL để truy xuất thông tin liên quan, tận dụng hàng thập kỷ tối ưu hóa cơ sở dữ liệu cho các phép nối (joins), lập chỉ mục và các truy vấn phức tạp.
Đây là tầm nhìn đằng sau Memori.
Memori là một công cụ bộ nhớ nguồn mở được xây dựng để cung cấp cho các tác nhân AI bộ nhớ giống con người trên nền tảng cơ sở dữ liệu truyền thống. Thay vì nhồi nhét lời nhắc liên tục hoặc quản lý các kho lưu trữ vector, Memori kết hợp bộ nhớ ngắn hạn và dài hạn với cơ chế thăng cấp thông minh. Các sự kiện quan trọng được lưu trữ vĩnh viễn, sở thích được ghi nhớ, và các cuộc hội thoại trở nên liên tục.
Xử lý Mối quan hệ & Thực thể trong SQL: Không giống như cơ sở dữ liệu đồ thị lưu trữ mối quan hệ dưới dạng cạnh, Memori xác định mối quan hệ trong SQL bằng cách sử dụng các loại bộ nhớ chuyên biệt và mô hình dữ liệu có cấu trúc. Memori sử dụng bốn loại bộ nhớ riêng biệt:
- Bộ nhớ Thực thể (Entity Memory): Lưu trữ người, công nghệ, dự án dưới dạng các bản ghi có cấu trúc với các thuộc tính.
- Bộ nhớ Quy tắc (Rules Memory): Nắm bắt các hướng dẫn và ràng buộc do người dùng xác định.
- Bộ nhớ Ngắn hạn (Short-term Memory): Các cuộc hội thoại gần đây với các liên kết ngữ cảnh.
- Bộ nhớ Dài hạn (Long-term Memory): Các thông tin chi tiết vĩnh viễn với các tham chiếu quan hệ.
Các mối quan hệ được mô hình hóa thông qua khóa ngoại (foreign keys), trường JSON cho các thuộc tính phức tạp và hệ thống gắn thẻ thông minh. Ví dụ, câu “John là đồng đội của tôi và anh ấy thích Python” được lưu trữ dưới dạng bản ghi thực thể cho John với các thuộc tính quan hệ (teammate_of: user_id) và thẻ sở thích (languages: [“Python”]), thay vì yêu cầu một cấu trúc đồ thị riêng biệt.
Các tính năng của Memori bao gồm:
- Hệ thống Bộ nhớ Kép (ngắn hạn và dài hạn).
- Thăng cấp Bộ nhớ Thiết yếu (AI quyết định điều gì đáng giữ lại).
- Quy tắc & Thực thể (ví dụ: “Tôi thích Python” hoặc “John là đồng đội của tôi”).
- Tích hợp Toàn cầu (hoạt động với bất kỳ ngăn xếp LLM nào: OpenAI, Anthropic, LiteLLM).
- Không phụ thuộc vào Cơ sở Dữ liệu (hỗ trợ PostgreSQL, MySQL, SQLite).
- Ưu điểm của phương pháp này:
- Được xây dựng trên công nghệ cơ sở dữ liệu đã được chứng minh, có thể mở rộng mà các doanh nghiệp đã tin tưởng.
- Bộ nhớ có cấu trúc (quy tắc, thực thể, sở thích), không chỉ là tìm kiếm mờ.
- Kiến trúc đáng tin cậy, sẵn sàng cho sản xuất với tuân thủ ACID.
- Dễ dàng cho các nhà phát triển áp dụng, không cần học một hệ thống mới hoàn toàn.
- Đặc điểm hiệu suất tuyệt vời và hệ sinh thái công cụ trưởng thành.
- Phù hợp tự nhiên với các ứng dụng đã sử dụng cơ sở dữ liệu SQL.
- Nhược điểm:
- Khả năng tìm kiếm ngữ nghĩa bị hạn chế so với cơ sở dữ liệu vector, đòi hỏi khớp chính xác hoặc logic tương đồng thủ công.
- Có thể gặp khó khăn với dữ liệu hội thoại phi cấu trúc không khớp hoàn toàn vào các lược đồ được xác định trước.
Tổng Kết
Bộ nhớ AI đã đi một chặng đường dài, từ việc nhồi nhét mọi thứ vào lời nhắc, đến tìm kiếm vector với RAG, đến các hệ thống dựa trên đồ thị tinh vi, kiến trúc lai, và giờ đây quay trở lại với thứ chúng ta đã tin tưởng trong nhiều thập kỷ: cơ sở dữ liệu.
Thực tế là, xây dựng bộ nhớ cho AI không phải là phát minh lại việc lưu trữ. Đó là việc kết hợp độ tin cậy của các hệ thống cũ với sự thông minh của các hệ thống mới. Mỗi phương pháp đều có điểm mạnh riêng:
- Kỹ thuật lời nhắc hoạt động cho các nhu cầu đơn giản, ngắn hạn.
- Cơ sở dữ liệu vector tốt cho tìm kiếm ngữ nghĩa trên các tập dữ liệu phi cấu trúc lớn.
- Cơ sở dữ liệu đồ thị tuyệt vời cho mô hình hóa mối quan hệ phức tạp và suy luận thực thể.
- Hệ thống lai cung cấp phạm vi toàn diện, nhưng với độ phức tạp tăng thêm.
- Cơ sở dữ liệu truyền thống mang lại độ tin cậy, cấu trúc và tích hợp dễ dàng.
Với các công cụ như Memori, Zep và mem0, các nhà phát triển cuối cùng đã có cách để cung cấp cho các tác nhân AI của họ một bộ nhớ giống con người, mà không cần sự phình to, lãng phí token, hoặc độ phức tạp của các giải pháp phức tạp hơn.
Cuối cùng, cơ sở dữ liệu đã ở đây suốt thời gian qua, và chúng có thể giải quyết mảnh ghép còn thiếu để làm cho AI thực sự không thể quên được.
Tham khảo: medium.com

Bài viết liên quan: