See the original English version of this article here

คนส่วนใหญ่ที่พูดถึง AI มักจะดูเหมือนท่องจำความหมายตามพจนานุกรมมาพูด หรือไม่ก็ดูงุนงงไปเลยเมื่อมีคนเอ่ยถึงคำว่า LLMs หรือ Neural Networks แต่คุณไม่จำเป็นต้องเป็นแบบคนกลุ่มนั้น
มีคำศัพท์และแนวคิดสำคัญอยู่ 5 อย่าง หากคุณ “เข้าใจมันอย่างถ่องแท้” (ไม่ใช่แค่ท่องจำ) คุณจะก้าวล้ำหน้าคนอื่น ๆ ไปไกลมาก ไม่ว่าคุณจะอยู่ในแวดวงเทคโนโลยี ธุรกิจ การศึกษา หรือเป็นเพียงแค่คนที่อยากรู้ว่าโลกในอนาคตกำลังมุ่งหน้าไปทางไหนก็ตาม มาดูกันเลย!

1. Tokens (โทเคน)
สิ่งแรกที่คุณต้องจำไว้เลยก็คือ โมเดล AI ไม่ได้อ่านเป็น “คำ” (Words) และไม่ได้อ่านเป็น “ตัวอักษร” (Letters) แต่มันอ่านสิ่งที่เรียกว่า “Tokens”
แล้ว Token คืออะไร? ลองจินตนาการว่าคุณกำลังอ่านหนังสือ แต่แทนที่จะอ่านทีละคำ คุณอ่านเป็นกลุ่มคำ บางครั้งอาจเป็นคำเต็ม ๆ อย่าง “แมว” บางครั้งอาจเป็นแค่ส่วนหนึ่งของคำ เช่น “un” หรือ “tion” หรือบางครั้งอาจเป็นแค่เครื่องหมายวรรคตอน ชิ้นส่วนของข้อความเหล่านี้นี่แหละที่เราเรียกว่า Token
ตัวอย่างเช่น ประโยค “I love pizza” สามารถแบ่งออกได้เป็น 3 Tokens คือ “I”, “ love”, และ “ pizza”
เรื่องนี้สำคัญกับคุณอย่างไร? เพราะทุกผลิตภัณฑ์ AI ที่คุณใช้งาน ไม่ว่าจะเป็น ChatGPT, Claude หรือ Gemini ล้วนมีการนับจำนวน Tokens อยู่เบื้องหลัง ยิ่งคุณพิมพ์ข้อความยาวเท่าไหร่ (จำนวน Tokens มากขึ้น) โมเดลก็ยิ่งต้องประมวลผลหนักขึ้น และยิ่งมันสร้างคำตอบออกมามากเท่าไหร่ ต้นทุนในการทำงานของมันก็ยิ่งสูงขึ้นตามไปด้วย
เวลาที่คุณได้ยินคนพูดถึง Context Window ของโมเดล AI (ซึ่งเราจะพูดถึงในหัวข้อถัดไป) นั่นหมายถึงจำนวน Tokens ที่ AI สามารถจดจำได้ในคราวเดียว โมเดลรุ่นเก่า ๆ อาจรับได้แค่ 4,000 Tokens ในขณะที่รุ่นใหม่ ๆ สามารถรับได้มากกว่า 1 ล้าน Tokens
นี่คือเหตุผลที่ว่าทำไมในบางครั้ง AI ถึงลืมสิ่งที่คุณเคยคุยไปก่อนหน้านี้ในบทสนทนายาว ๆ เมื่อบทสนทนาใช้พื้นที่ใน Context Window จนเต็ม Tokens ที่เก่าที่สุดจะถูกลบออกไป คล้ายกับเวลาที่ RAM ในคอมพิวเตอร์ของคุณเต็มและเครื่องเริ่มมีอาการกระตุก
Tokens เปรียบเสมือนหน่วยอะตอมของภาษา AI เมื่อคุณเข้าใจสิ่งนี้ คุณจะเริ่มเห็นภาพว่าทำไม Prompt (คำสั่ง) บางตัวถึงทำงานได้ดีกว่า ทำไม AI ถึงขี้ลืมเวลาคุยกันยาว ๆ และทำไมการคิดราคา API ถึงถูกวัดเป็นเรทราคาต่อ 1,000 Tokens
2. Context Window (หน้าต่างบริบท)
ลองนึกภาพว่าคุณกำลังคุยกับใครบางคนที่มีความจำแบบเฉพาะเจาะจงมาก พวกเขาสามารถจำบทสนทนาได้แค่ช่วงเวลา X นาทีล่าสุดเท่านั้น ส่วนเรื่องที่คุยก่อนหน้านั้น? หายวับ ลืมไปหมดสิ้น สิ่งนี้แหละที่เรียกว่า Context Window
มันคือปริมาณข้อความทั้งหมด (ที่วัดเป็นหน่วย Tokens) ซึ่งโมเดล AI สามารถมองเห็นและประมวลผลร่วมกันได้ในครั้งเดียว ซึ่งรวมไปถึงทุก ๆ อย่าง: คำสั่งของคุณ, ประวัติการแชท, ไฟล์เอกสารที่คุณอัปโหลดไป และคำตอบที่ AI เคยตอบกลับมาแล้ว
ลองนึกภาพว่ามันคือ “กระดานไวท์บอร์ด” Context Window ก็คือขนาดของกระดานบานนั้น คุณสามารถเขียนอะไรลงไปก็ได้ แต่เมื่อพื้นที่เต็ม คุณก็ต้องลบของเก่าทิ้งเพื่อเขียนสิ่งใหม่ลงไป
รู้ไหมว่าอะไรที่น่าสนใจกว่านั้น? Context Window ขนาดเล็ก (เช่น 4K Tokens) หมายความว่า AI สามารถทำงานกับข้อความได้เพียงไม่กี่หน้ากระดาษในคราวเดียว หากคุณให้เอกสารยาว ๆ ไป มันจะอ่านได้แค่บางส่วนเท่านั้น แต่ถ้าเป็น Context Window ขนาดใหญ่ (เช่น 200K Tokens) นั่นแปลว่าคุณสามารถคัดลอกข้อความหนังสือทั้งเล่มลงไปแล้วให้มันสรุปหรือถามคำถามได้เลย
นี่คือเหตุผลที่ผู้คนต่างฮือฮาเมื่อ Claude ประกาศว่ามี Context Window รองรับถึง 200,000 Tokens หรือตอนที่ Gemini ขยับตัวเลขไปถึงระดับ 1 ล้าน Tokens เพราะสิ่งเหล่านี้ได้เปลี่ยนรูปแบบสิ่งที่คุณสามารถทำกับโมเดล AI ไปอย่างสิ้นเชิง
ข้อคิดที่นำไปใช้ได้จริงคืออะไร? หากคุณกำลังทำงานสำคัญ เช่น การสรุปเอกสารยาว ๆ หรือวิเคราะห์ข้อมูล ให้ตระหนักไว้เสมอว่า AI ของคุณอาจจะลืมช่วงแรก ๆ ของการสนทนาได้ ซึ่งนั่นไม่ใช่ข้อผิดพลาดของระบบ (Bug) แต่มันเป็นเพียงแค่พื้นที่บนกระดานไวท์บอร์ดเต็มเท่านั้นเอง
3. Temperature (อุณหภูมิความสร้างสรรค์)
ข้อนี้เป็นเรื่องที่ควรอ่านมากที่สุด เพราะเมื่อคุณได้เข้าใจมันแล้ว คุณจะไม่มีวันลืมมันเลย
เวลาที่คุณสั่งให้ AI เขียนอะไรสักอย่าง มันจะมีการตั้งค่าที่เรียกว่า “Temperature” ซึ่งเป็นตัวกำหนดว่าผลลัพธ์ที่ได้จะมีความเป็นรูปแบบตายตัว หรือสร้างสรรค์คาดเดาไม่ได้มากน้อยแค่ไหน
- อุณหภูมิต่ำ (เข้าใกล้ 0) คือ AI จะเลือกเพลย์เซฟ (Play it safe) มันจะเลือกคำที่มีความเป็นไปได้สูงที่สุดและตรงตามรูปแบบมากที่สุดเสมอ ผลลัพธ์ที่ได้จะมีความแม่นยำ สม่ำเสมอ และอาจจะดูน่าเบื่อนิดหน่อย เหมือนเพื่อนร่วมงานที่ชอบส่งอีเมลด้วยรูปแบบเดิม ๆ ทุกครั้ง
- อุณหภูมิสูง (เข้าใกล้ 1 หรือมากกว่า) คือ AI จะกล้าเสี่ยงมากขึ้น มันจะเลือกใช้คำที่น่าประหลาดใจ รูปประโยคแปลกใหม่ และไอเดียที่น่าสนใจ บางครั้งก็ออกมาสร้างสรรค์สุด ๆ แต่ก็ไม่ได้เป็นแบบนั้นเสมอไป
นี่คือตัวอย่างให้เห็นภาพ สั่งให้ AI “เติมประโยคนี้ให้สมบูรณ์: แมวนั่งอยู่บน…”
- ใน อุณหภูมิต่ำ AI แทบจะตอบกลับมาเสมอว่า “เสื่อ” หรือ “พื้น” (คาดเดาได้ ปลอดภัย)
- ใน อุณหภูมิสูง AI อาจจะตอบว่า “ประเด็นขัดแย้งทางปรัชญา” หรือ “อาณาจักรวันอังคารที่กำลังล่มสลาย”
สร้างสรรค์ไหม? ใช่เลย แต่เอาไปใช้เขียนเอกสารสรุปทางกฎหมายได้ไหม? ไม่ได้เด็ดขาด!
ดังนั้นนี่คือกฎเหล็กที่ไม่ได้ถูกเขียนไว้ ซึ่งคนส่วนใหญ่ไม่ค่อยรู้:
- หากคุณใช้ AI สำหรับงานที่ต้องการ ข้อเท็จจริง (เช่น การสรุปความ เขียนโค้ด สกัดข้อมูล) คุณควรตั้งค่าอุณหภูมิต่ำ AI ต้องมีความแม่นยำ ไม่ใช่ความสร้างสรรค์
- หากคุณใช้ AI สำหรับ งานครีเอทีฟ (เช่น แต่งนิยาย ระดมสมอง เขียนคำโฆษณา) ให้ตั้งค่าอุณหภูมิสูงขึ้น คุณจะต้องการผลลัพธ์ที่เหนือความคาดหมาย
แอปพลิเคชันสำหรับผู้ใช้งานทั่วไปอย่าง ChatGPT มักจะไม่อนุญาตให้คุณปรับค่านี้โดยตรง (ระบบจะตั้งค่าไว้กลาง ๆ) แต่ถ้าคุณเคยใช้ AI ผ่าน API หรือเครื่องมือสำหรับ Developer คุณจะเห็นการตั้งค่านี้ และตอนนี้คุณก็รู้แล้วว่าจะปรับมันไปทำไม
4. Hallucination (อาการมโนหรือความหลอนของ AI)
นี่คือคำศัพท์ที่ทุกคนคงเคยได้ยิน แต่ไม่ใช่ทุกคนที่จะเข้าใจว่าทำไมมันถึงเกิดขึ้น ซึ่งนี่คือส่วนที่สำคัญมาก
Hallucination (อาการหลอน) คือการที่ AI ให้คำตอบที่ “ผิดพลาด” ด้วย “ความมั่นใจแบบเต็มร้อย” ไม่มีอาการลังเลใด ๆ มันคือคำตอบที่ผิด แต่ถูกพ่นออกมาเหมือนเป็นข้อเท็จจริง
ตัวอย่าง: คุณถาม AI เกี่ยวกับหนังสือเล่มหนึ่ง มันบอกชื่อเรื่อง ชื่อผู้แต่ง ปีที่พิมพ์ และเรื่องย่อมาให้เสร็จสรรพ แต่ประเด็นคือมันมั่วขึ้นมาเองทั้งหมด หนังสือเล่มนี้ไม่มีอยู่จริง แต่ AI นำเสนอข้อมูลเสมือนว่ากำลังอ่านมาจากวิกิพีเดีย
ทำไมถึงเป็นแบบนี้? สิ่งสำคัญที่คนมักจะพลาดก็คือ โมเดลภาษาของ AI ไม่ใช่ฐานข้อมูล (Database) มันไม่ได้ไปสืบค้นความจริงมาตอบ แต่มันทำงานโดยการ “คาดเดา” Token ถัดไปที่มีความเป็นไปได้มากที่สุด จากรูปแบบที่มันเรียนรู้มาในช่วงที่มีการฝึกฝนข้อมูล AI ก็คือระบบเติมคำอัตโนมัติ (Autocomplete) ในสเกลระดับมหาศาลนั่นเอง
ดังนั้นเมื่อ AI ไม่รู้ข้อมูลบางอย่าง มันจะไม่ตอบว่า “ฉันไม่รู้” แต่มันจะสร้างคำตอบที่ดูเหมือนถูกต้องขึ้นมาแทน เพราะนั่นคือสิ่งที่มันถูกโปรแกรมมาให้ทำ
ความอันตรายไม่ได้อยู่ที่ AI ทำผิดพลาด เครื่องมือทุกชนิดมีโอกาสผิดพลาดได้ แต่ความอันตรายอยู่ตรงที่ AI มักจะทำผิดด้วย “ความมั่นใจ” ในระดับเดียวกับตอนที่มันตอบถูก มันสักแต่ว่าจะตอบนั่นเอง
บทเรียนในชีวิตจริงจากเรื่องนี้คือ อย่าเชื่อถือ AI แบบหลับหูหลับตา ไม่ว่าจะเป็นสถิติ ข้อเท็จจริง คำแนะนำทางการแพทย์ ข้อมูลทางกฎหมาย หรือเรื่องที่หากผิดพลาดแล้วจะส่งผลกระทบอย่างร้ายแรง ให้ใช้ AI เป็นเพียง “จุดเริ่มต้น” จากนั้นให้ตรวจสอบข้อมูล (Verify) อีกครั้งเสมอ
คนที่เข้าใจเรื่องการหลอนของ AI จะไม่เลิกใช้มัน พวกเขาเพียงแค่ใช้งานมันอย่างฉลาดขึ้นต่างหาก
5. RAG (Retrieval-Augmented Generation)
นี่คือแนวคิดที่คนเข้าใจผิดมากที่สุดในบรรดา 5 คำนี้ และบอกตามตรงนะ ถ้าคุณเข้าใจมันแล้ว คุณจะเห็นเทคโนโลยีนี้ทำงานอยู่รอบตัวเต็มไปหมด
RAG ย่อมาจาก Retrieval-Augmented Generation ซึ่งจริง ๆ แล้วมันเป็นไอเดียที่เรียบง่ายมาก
ปัญหาที่มันมาช่วยแก้คือ: โมเดล AI ทั่วไปจะถูกฝึกสอนข้อมูลมาจนถึงแค่วันที่กำหนดเท่านั้น มันไม่รู้ข้อมูลเอกสารภายในบริษัทคุณ ไม่รู้เหตุการณ์ข่าวเมื่อสัปดาห์ที่แล้ว และไม่รู้อะไรเลยเกี่ยวกับไฟล์ PDF ที่คุณเพิ่งอัปโหลดลงไป แล้วประเภทที่ “Chat with your PDF” หรือ “ถามคำถามจากเอกสารนี้” มันทำงานได้ยังไงล่ะ? คำตอบคือ RAG นี่แหละ
เมื่อคุณอัปโหลดเอกสาร ระบบไม่ได้ส่งข้อมูลทั้งหมดเข้าไปในสมองของ AI ในคราวเดียว แต่มันจะหั่นเอกสารออกเป็นส่วนย่อย ๆ และเก็บไว้ในฐานข้อมูลชนิดพิเศษที่เรียกว่า Vector Database ซึ่งเข้าใจความหมายของบริบทมากกว่าแค่จดจำ Keyword
จากนั้น เมื่อคุณพิมพ์คำถาม ระบบจะไปค้นหาข้อมูลที่เกี่ยวข้องกันมากที่สุดในฐานข้อมูลนี้ก่อน มันจะ “ดึง (Retrieve)” ส่วนย่อยเหล่านั้นออกมา แล้วป้อนข้อมูลเหล่านั้นส่งไปให้ AI พร้อมกับคำถามของคุณ โดยเปรียบเสมือนการบอกว่า: “นี่คือบริบทที่เกี่ยวข้อง เอาข้อมูลนี้ไปใช้ตอบคำถามนะ”
แค่นั้นเอง ดึงข้อมูลที่เกี่ยวข้อง (Retrieve) > ป้อนส่งไปให้ AI (Augmented) > สร้างและประมวลผลคำตอบออกมา (Generation) = RAG
แล้วเรื่องนี้สำคัญอย่างไร? เพราะมันคือโครงสร้างพื้นฐานของผลิตภัณฑ์ AI ที่มีประโยชน์เกือบทุกตัวที่ถูกสร้างขึ้นในช่วง 2 ปีที่ผ่านมา บอท Customer Support ที่รู้จักนโยบายของบริษัท ผู้ช่วย AI ที่ตอบคำถามจากสัญญาทางกฎหมายได้ เครื่องมือสรุปงานวิจัย ทั้งหมดนี้ล้วนสร้างขึ้นจากระบบ RAG
และการรู้เรื่องนี้จะเปลี่ยนมุมมองที่คุณมีต่อแอปพลิเคชัน AI ไปเลย เมื่อ AI รู้เรื่องเอกสารของคุณ มันไม่ได้ไป “เรียนรู้” ข้อมูลใหม่จริง ๆ มันแค่ทำการค้นหาอย่างฉลาดเฉียบคมแล้วส่งผลลัพธ์นั้นให้กับโมเดลภาษา ตัวโมเดลยังคงเป็นตัวเดิม แค่มีบริบทใหม่เข้ามาเสริมเท่านั้นเอง
สรุปแล้ว ทำไมสิ่งเหล่านี้ถึงสำคัญ?
เพราะ AI จะไม่หายไปไหน และช่องว่างระหว่าง “คนที่ใช้งาน AI แบบงู ๆ ปลา ๆ” กับ “คนที่เข้าใจการทำงานพื้นฐานของมันจริง ๆ” จะยิ่งทิ้งห่างกันมากขึ้นเรื่อย ๆ ในอีกไม่กี่ปีข้างหน้า
คุณไม่จำเป็นต้องเป็น Engineer หรือเขียนโค้ดเก่ง แต่…
- การเข้าใจ Tokens จะทำให้คุณเขียน Prompt ได้ดีขึ้น
- การเข้าใจ Context Window จะทำให้คุณรู้ว่าทำไม AI ถึงมีอาการขี้ลืม
- การเข้าใจ Temperature จะทำให้คุณรู้ว่าควรตั้งค่าแบบไหน สำหรับงานประเภทใด
- การเข้าใจ Hallucination จะทำให้คุณใช้ AI อย่างมีวิจารณญาณ ไม่หลงเชื่อไปทั้งหมด
- การเข้าใจ RAG จะทำให้คุณรู้เท่าทันว่าเกิดอะไรขึ้นเบื้องหลังเวลาที่มีแอป AI อ้างว่ามันรู้จักข้อมูลของคุณ
และทั้งหมดนี้คือ 5 คำศัพท์นี้ กับความเข้าใจอย่างแท้จริง แค่นี้คุณก็นำหน้าคนส่วนใหญ่ที่ใช้ AI แบบไม่รู้เบื้องลึกเบื้องหลังไปไกลลิบแล้ว
เมื่อ หางาน IT ให้ ISM Technology Recruitment เป็นอีกหนึ่งตัวช่วย เพื่อให้คุณได้ “ชีวิตการทำงานในแบบที่คุณต้องการ” เพียงส่ง Resume มาที่นี่
ISM เชี่ยวชาญในธุรกิจ IT Recruitment & IT Outsourcing โดยเฉพาะ ได้เปิดทำการมาแล้วกว่า 30 ปี มีพนักงานทุกสายและทุกระดับทางด้าน IT ที่ได้ร่วมงานกับลูกค้าองค์กรใหญ่ที่มีชื่อเสียงและบริษัทข้ามชาติมากมาย
Source: https://pub.towardsai.net/