0 reply
0 recast
0 reaction
KỸ THUẬT PROMPTING MỚI LANGUAGE-OF-THOUGHTS: ĐÀO THÔNG TIN ẨN
LLMs hót hay nhưng tư duy kém: mỗi lần được giao reasoning phức tạp, kiểu như suy luận đa bước hay xử lý thông tin ẩn, thì tái mặt ấp úng. Paper này chỉ ra cái gọi là thinking-language modeling gap.
Nói đơn giản, LLMs học ngôn ngữ (từ cách con người viết, nói) chứ không học cách con người nghĩ. Do đó chúng nó chỉ bắt chước cách diễn đạt ngôn ngữ chứ chưa thực sự nắm được logic cốt lõi.
Ví dụ hỏi LLM “Nếu A lớn hơn B, B lớn hơn C, thì A với C thế nào?”. Con người sẽ nghĩ ngay: “Ok, A > B, B > C, vậy A > C”. Nhưng nếu câu hỏi được diễn đạt lằng nhằng, kiểu “Trong một cuộc thi, Anna đứng trước Bob, còn Bob đứng trước Charlie, ai đứng đầu?”, 3 replies
0 recast
10 reactions
0 reply
0 recast
0 reaction
Structural Causal Models: Tư duy vs Ngôn ngữ
Để giải thích cái gap này, team nghiên cứu dùng Structural Causal Models (SCMs) – nghe fancy nhưng thực ra là cách mô hình hóa mối quan hệ giữa tư duy (thoughts) và ngôn ngữ (language).
Cụ thể:
Thought level: Đây là tầng tư duy với các khái niệm (C₁, C₂) và mối quan hệ giữa chúng dẫn tới câu trả lời (A). Tầng này siêu logic, không bị nhiễu.
Language level: Đây là tầng ngôn ngữ, nơi các khái niệm được diễn đạt thành từ ngữ (L₁, L₂, Lₐ). Vấn đề là tầng này dễ bị biến dạng, thêm bias, hoặc thiếu thông tin.
Vd ae nghĩ trong đầu “Mèo ăn cá, cá ở sông”. Logic rõ ràng. Nhưng khi diễn đạt thành “Mèo thích món ở sông”, câu này thiếu mất từ “cá”, làm LLM có thể hiểu sai hoặc không nắm được logic. Paper gọi đây là implicitness (thông tin ẩn).
Có hai loại chính: 0 reply
0 recast
0 reaction
0 reply
0 recast
1 reaction