Content pfp
Content
@
https://warpcast.com/~/channel/movement-vietnam
0 reply
0 recast
0 reaction

Phongkin pfp
Phongkin
@phongkin
KỸ THUẬT PROMPTING MỚI LANGUAGE-OF-THOUGHTS: ĐÀO THÔNG TIN ẨN LLMs hót hay nhưng tư duy kém: mỗi lần được giao reasoning phức tạp, kiểu như suy luận đa bước hay xử lý thông tin ẩn, thì tái mặt ấp úng. Paper này chỉ ra cái gọi là thinking-language modeling gap. Nói đơn giản, LLMs học ngôn ngữ (từ cách con người viết, nói) chứ không học cách con người nghĩ. Do đó chúng nó chỉ bắt chước cách diễn đạt ngôn ngữ chứ chưa thực sự nắm được logic cốt lõi. Ví dụ hỏi LLM “Nếu A lớn hơn B, B lớn hơn C, thì A với C thế nào?”. Con người sẽ nghĩ ngay: “Ok, A > B, B > C, vậy A > C”. Nhưng nếu câu hỏi được diễn đạt lằng nhằng, kiểu “Trong một cuộc thi, Anna đứng trước Bob, còn Bob đứng trước Charlie, ai đứng đầu?”,
3 replies
0 recast
10 reactions

Phongkin pfp
Phongkin
@phongkin
thì LLM đôi khi sẽ bị rối vì cách diễn đạt. Nó không nghĩ theo logic mà chỉ cố match pattern ngôn ngữ từ dữ liệu training. Đây chính là cái gap mà paper đào sâu.
0 reply
0 recast
0 reaction

Phongkin pfp
Phongkin
@phongkin
Structural Causal Models: Tư duy vs Ngôn ngữ Để giải thích cái gap này, team nghiên cứu dùng Structural Causal Models (SCMs) – nghe fancy nhưng thực ra là cách mô hình hóa mối quan hệ giữa tư duy (thoughts) và ngôn ngữ (language). Cụ thể: Thought level: Đây là tầng tư duy với các khái niệm (C₁, C₂) và mối quan hệ giữa chúng dẫn tới câu trả lời (A). Tầng này siêu logic, không bị nhiễu. Language level: Đây là tầng ngôn ngữ, nơi các khái niệm được diễn đạt thành từ ngữ (L₁, L₂, Lₐ). Vấn đề là tầng này dễ bị biến dạng, thêm bias, hoặc thiếu thông tin. Vd ae nghĩ trong đầu “Mèo ăn cá, cá ở sông”. Logic rõ ràng. Nhưng khi diễn đạt thành “Mèo thích món ở sông”, câu này thiếu mất từ “cá”, làm LLM có thể hiểu sai hoặc không nắm được logic. Paper gọi đây là implicitness (thông tin ẩn). Có hai loại chính:
0 reply
0 recast
0 reaction

Phongkin pfp
Phongkin
@phongkin
Lexical implicitness (L-implicitness): Thiếu từ ngữ cụ thể để chỉ khái niệm. Như ví dụ trên, “món ở sông” không nói rõ là “cá”. Có ông bạn nói tiếng Việt hay dùng ‘cái ấy’, đến bố tôi cũng không hiểu nó là cái gì. Quantifier implicitness (q-implicitness): Không rõ phạm vi hoặc số lượng. Ví dụ: “Một vài người trong lớp thích pizza” – “một vài” là bao nhiêu? Cả lớp hay chỉ 2-3 người? Team nghiên cứu tạo dataset kiểm tra với các mức implicitness khác nhau. Kết quả là khi câu hỏi càng ẩn thông tin, LLMs càng dễ fail. Trong khi con người có thể “điền vào chỗ trống” dựa trên common sense, LLMs lại lúng túng vì chúng chỉ dựa vào pattern ngôn ngữ. Language-of-Thoughts (LoT): Cách tiếp cận mới
0 reply
0 recast
1 reaction