Prompt 101: Cách prompt để khai thác hiệu quả model reasoning ChatGPT

Doanh nghiệp gần bạn nhất

được xác nhận bởi itcctv

Prompt 101: Cách prompt để khai thác hiệu quả model reasoning ChatGPT
Hình ảnh rao vặt

Prompt 101: Cách prompt để khai thác hiệu quả model reasoning ChatGPT

OpenAI vừa cập nhật hướng dẫn prompt để có thể sử dụng model reasoning một cách tối ưu nhất. Trong đó có khá nhiều điểm hay, đặc biệt là cách prompt đặc thù dành cho model kiểu reasoning để khai thác nó hiệu quả hơn.

Từ đầu năm đến giờ, chúng ta chứng kiến cơn bão cập nhật model từ những cái tên quen thuộc như OpenAI, Google, Anthropic và cả DeepSeek, Qwen,… Tuy nhiên, model dù có mạnh thì người dùng cần phải biết cách khai thác nó một cách hiệu quả nhất để có được phản hồi chính xác và hữu dụng. Bất kể là sử dụng chatbot để code ứng dụng, phân tích tài liệu tài chính hay nghiên cứu học thuật, việc sử dụng prompt tối ưu vẫn có vai trò cực kỳ quan trọng.

Bài viết này, mình sẽ tổng hợp lại những khuyến cáo mới trong chỉ dẫn của OpenAI khi làm việc với các model reasoning. Tất nhiên, cách làm này về bản chất có thể áp dụng được với ChatGPT o1, o3 mini lẫn nhiều model tương tự từ các hãng phát triển khác.


Khác với model GPT trước giờ chúng ta dùng, các model reasoning như dòng o của OpenAI được huấn luyện để suy nghĩ lâu hơn và sâu hơn trước các tác vụ phức tạp. Nó hiệu quả với những task cần suy luận logic, lập chiến lược, tìm giải pháp, lý giải nhân - quả, lên kế hoạch để giải quyết vấn đề dựa trên một tập dữ liệu lớn. Các model reasoning sẽ thực hiện nhiệm vụ với độ chính xác và rõ ràng cao hơn, thích hợp với các lĩnh vực như toán, khoa học, kỹ thuật, tài chính và luật pháp. Cũng vì sự phức tạp trong vận hành, model reasoing đòi hỏi nguồn lực tính toán cao hơn, tốn thời gian hơn để hoàn tất và trả về kết quả.

Trong khi đó, các model GPT hoạt động đơn giản hơn, trả về kết quả nhanh hơn, phù hợp với các nhiệm vụ đơn giản hoặc truy vấn nhanh. Mặc dù các model GPT sau này đã có khả năng suy luận khá ấn tượng nhưng nó vẫn tiềm ẩn hallucianation (hiện tượng model bịa thông tin) và phụ thuộc nhiều hơn vào cách người dùng prompt và nguồn dữ liệu huấn luyện hoặc cập nhật cho model.


Đây là điểm quan trọng nhất trong chỉ dẫn mới của OpenAI. Theo đó, một prompt đi thẳng vào vấn đề sẽ giúp model dễ dàng đạt hiệu suất cao nhất và trả về kết quả phù hợp. Việc phức tạp quá mức nội dung trong prompt, đặc biệt là bỏ thêm vào các từ ngữ không cần thiết sẽ khiến model bị rối và đưa ra phản hồi kém chất lượng. Mình thấy nhiều bạn hay bỏ thêm vào các đại từ, giới từ,… biểu diễn cảm xúc như đang chat với người thật. Cái này tùy vào mục đích lúc đó bạn đang làm gì với model, tuy nhiên khi không muốn chỉ nói chuyện chơi với model mà làm việc với nó thì nên hạn chế cái này.

Thí dụ:
Prompt kém hiệu quả:
Bạn vui lòng giúp tôi phân tích tập dữ liệu này theo từng bước, giải thích cách suy luận của bạn ở mỗi giai đoạn và đảm bảo rằng câu trả lời phù hợp với điều kiện thực tế của lĩnh vực phân tích tài chính.


Prompt hiệu quả hơn: Phân tích tập dữ liệu và đưa ra các thông tin quan trọng.


Có thể thấy mặc dù cách prompt đầu tiên vẫn sẽ hiệu quả với model GPT bình thường, nhưng khi áp dụng nó cho model reasoning thì câu trả lời sẽ dài dòng, chứa những thành phần không cần thiết. Trong khi prompt sau dù rất ngắn nhưng kết quả cuối cùng lại rất rõ ràng, đi thẳng vào vấn đề. Vấn đề rút ra ở đây chính là với các model reasoning, hãy giao chuyện suy luận cho model, chúng ta không cần quá micro management vào quá trình suy luận của nó.


Chain of thought là kỹ thuật prompt định hướng cách suy luận của model, chỉ cho nó từng bước suy luận để giải quyết vấn đề. Kỹ thuật CoT trước giờ vẫn chứng minh tính hiệu quả của nó khi làm việc với các model GPT. Tuy nhiên, khi làm việc với model reasoning thì điều đó không cần thiết và thậm chí là phản tác dụng. Đơn giản vì đối với model reasoning, nhà phát triển đã tối ưu hóa sẵn CoT ngay trong instruction của model để điều hướng suy luận của nó sẵn. Bởi thế nên người dùng lại tiếp tục bỏ CoT vào prompt có thể khiến model bị rối hơn và giảm hiệu suất của nó.


Thí dụ:
Prompt kém hiệu quả:
Hãy suy nghĩ từng bước và giải thích cách bạn tính tổng của các số tự nhiên từ 1 đến 99.



Prompt hiệu quả: Tính tổng của các số tự nhiên từ 1 đến 99



Nếu trong prompt có nhiều câu hỏi hoặc nhiều yêu cầu hoặc đưa vào data có cấu trúc, chúng ta nên chia các thành phần trong prompt ra bằng 3 dấu gạch, tag XML hoặc đặt tiêu đề cho từng phần để model hiểu được cấu trúc của yêu cầu mà chúng ta đặt ra cho nó. Nếu viết luôn tuồng trong prompt đẩy vào model reasoning, nó sẽ khó để định hình được cấu trúc yêu cầu và từ đó, không trả về kết quả như ý.

Thí dụ:
Prompt kém hiệu quả:
Hãy tóm tắt báo cáo tài chính: Đoạn 1 nói về các kết quả kinh doanh quan trọng… Đoạn 2 giải thích các kết quả… Đoạn 3 đưa ra dự báo rủi ro.


Prompt hiệu quả hơn:
Tóm tắt báo cáo tài chính
---
Kết quả hoạt động kinh doanh…
Giải thích các kết quả…
Dự báo các rủi ro…
---
Kết luận xúc tích





Cái này sẽ liên quan tới việc đưa một tài liệu lớn lên chatbot để truy vấn thông tin từ đó. Thí dụ như bạn tải nguyên cuốn sách 500 trang định dạng pdf lên model o1 để hỏi một vấn đề gì đó. OpenAI khuyến cáo nên chỉ định rõ trong prompt để AI biết nó cần đọc chương nào hoặc từ trang bao nhiêu đến bao nhiêu. Điều này sẽ hạn chế đưa quá nhiều data không cần thiết vào model, khiến nó bị rối và giảm chất lượng của những câu truy vấn cụ thể.

Thí dụ:
Prompt kém hiệu quả:
Tóm tắt các thông tin quan trọng của cuốn sách


Prompt hiệu quả hơn: Tóm tắt các thông tin quan trọng trong 2 chương: Introduction to Keras and TensorFlow và Getting started with neural networks: Classification and regression



Đối với các tác vụ có chứa những ràng buộc trong đó, thí dụ nhu soạn một kết hoạch truyền thông theo ngân sách cho trước, giới hạn trong một khung thời gian hoặc buộc phải sử dụng một chiến lược nào đó,… thì hãy nêu rõ trong prompt. Cần phần biệt cái này với lưu ý số 1 nhé.

Thí dụ:
Prompt kém hiệu quả:
Hãy gợi ý một chiến lược marketing cho ví da thủ công


Prompt hiệu quả hơn: Hãy gợi ý một chiến lược marketing digital cho một startup ví da thủ công với ngân sách 100 triệu, chạy trên mạng xã hội Facebook, hướng tới khách hàng độ tuổi 25 - 30.


Có thể thấy đưa những thông tin ràng buộc mang tính trọng yếu vào prompt, kết quả trả về sẽ cụ thể và sát với nhu cầu của người dùng hơn thay vì chung chung như ban đầu.


Cuối cùng, OpenAI khuyến cáo người dùng nên xác định rõ để model hiểu được là khi nào là hoàn tất nhiệm vụ và nếu chưa đạt được tới đó thì lặp lại quá trình khi cần thiết. Nếu cuối cùng model vẫn không trả về kết quả như ý, cần tinh chỉnh lại prompt, bổ sung thêm một số chi tiết nếu cần để cải thiện kết quả.

Thí dụ:
Prompt gốc:
Cung cấp 5 ý tưởng tạo ra ứng dụng với LLM


Prompt đã chỉnh sửa: Cung cấp 5 ý tưởng tạo ra ứng dụng B2B với LLM trong lĩnh vực giáo dục, dùng AI để tự động hóa việc kiểm tra kiến thức của học sinh.


Trên đây là các lưu ý của OpenAI khi làm việc với các model reasoning để có thể khai thác tối đa khả năng suy luận của nó nhằm giải quyết các vấn đề phức tạp. Bằng cách này, chúng ta có thể cải thiện được hiệu suất của AI, giảm lỗi và bắt AI đưa ra phản hồi đúng ý hơn, có ích hơn khi người dùng truy vấn. Các lưu ý prompt này có thể áp dụng cả khi chat với các model reasoning của OpenAI lẫn Google, Claude, DeepSeek,… cả chat với chatbot, lẫn xây dựng các ứng dụng có dùng AI.

Xem thêm các bài viết khác về prompt từ cơ bản đến nâng cao:
Nguồn:tinhte.vn/thread/prompt-101-cach-prompt-de-khai-thac-hieu-qua-model-reasoning-chatgpt.3967581/
💬 bình luận

Bình luận

Trở thành viên của itcctv — Đăng ký
Thủ thuật tin học văn phòng Thủ thuật Word Thủ thuật Excel
Cuộn