วันพุธ ที่ 29 ตุลาคม พ.ศ. 2568
เร้ดแฮท (Red Hat) ผู้ให้บริการโซลูชันโอเพ่นซอร์สชั้นนำของโลก ประกาศเปิดตัว Red Hat AI 3 ซึ่งเป็นก้าวสำคัญของแพลตฟอร์ม AI ระดับองค์กร ที่ผสานรวมนวัตกรรมล่าสุดของ Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) และ Red Hat OpenShift AI เข้าด้วยกัน เพื่อลดความซับซ้อนของการอนุมาน AI ประสิทธิภาพสูงในการปรับใช้ในระบบขนาดใหญ่(high-performance AI inference) ช่วยให้องค์กรต่าง ๆ สามารถนำเวิร์กโหลดที่อยู่ในขั้นตอนการทดลอง (proofs-of-concept) ไปสู่การใช้งานจริง (production) ได้ง่ายขึ้น และช่วยให้สามารถพัฒนาแอปพลิเคชันที่ใช้ AI ร่วมกันได้อย่างมีประสิทธิภาพมากขึ้น
ในขณะที่องค์กรธุรกิจต่าง ๆ ก้าวผ่านขั้นตอนการทดลองใช้ AI องค์กรเหล่านั้นต้องเผชิญกับอุปสรรคสำคัญหลายประการ ไม่ว่าจะเป็น ความเป็นส่วนตัวของข้อมูล การควบคุมต้นทุน และการจัดการโมเดลที่หลากหลาย รายงาน “The GenAI Divide: State of AI in Business” จากโครงการ NANDA ของสถาบันเทคโนโลยีแมสซาชูเซตส์ (MIT) ย้ำให้เห็นความเป็นจริงของการนำ AI มาใช้งานจริง โดยองค์กรประมาณ 95% ไม่เห็นผลตอบแทนทางการเงินที่วัดผลได้จากการใช้จ่ายขององค์กรประมาณ 40,000 ล้านเหรียญสหรัฐฯ
Red Hat AI 3 มุ่งแก้ไขความท้าทายเหล่านี้ ด้วยการมอบประสบการณ์ที่สอดคล้องและเป็นเอกภาพมากขึ้นให้แก่ผู้บริหารฝ่ายสารสนเทศ (CIO) และผู้นำด้านไอที เพื่อให้ได้ประโยชน์สูงสุดจากการลงทุนในเทคโนโลยีการประมวลผลแบบเร่งความเร็ว (accelerated computing) แพลตฟอร์มนี้ช่วยให้ปรับขนาดและกระจาย AI workloads ไปยังสภาพแวดล้อมไฮบริดที่มีผู้ให้บริการหลายรายได้อย่างรวดเร็ว ในขณะเดียวกันก็ช่วยเพิ่มประสิทธิภาพการทำงานร่วมกันข้ามสายงานที่เกี่ยวกับ AI workloads รุ่นใหม่ ๆ เช่น agent ต่าง ๆ และทั้งหมดนี้ทำงานอยู่บนแพลตฟอร์มหลักเดียวกัน การที่ Red Hat AI 3 มีรากฐานที่สร้างขึ้นบนมาตรฐานแบบ open standards จึงสามารถตอบโจทย์ทุกขั้นตอนของเส้นทางการนำ AI มาใช้ขององค์กร สามารถรองรับโมเดลทุกประเภทที่ทำงานอยู่บน hardware accelerator ใดก็ได้ ตั้งแต่ดาต้าเซ็นเตอร์ ไปจนถึงพับลิคคลาวด์ และสภาพแวดล้อม sovereign AI หรือแม้แต่ edge ที่อยู่ห่างไกล
จาก “การเทรน” สู่ “การนำไปใช้จริง” : การเปลี่ยนผ่านสู่การอนุมาน AI ในระดับองค์กร
เมื่อองค์กรต่าง ๆ เริ่มนำโครงการ AI ต่าง ๆ ไปใช้งานจริง ความสำคัญจึงเปลี่ยนจากการเทรนและปรับแต่งโมเดลไปสู่การอนุมาน (inference) ซึ่งเป็นขั้นตอนของ “การนำไปใช้จริง” AI ในระดับองค์กร Red Hat AI 3 ให้ความสำคัญกับการอนุมานที่สามารถปรับขนาดได้และคุ้มค่าการลงทุน โดยพัฒนาต่อยอดจาก vLLM และ llm-d ซึ่งเป็น community โปรเจกต์ที่ประสบความสำเร็จสูง ควบคู่ไปกับศักยภาพในการเพิ่มประสิทธิภาพโมเดลของ Red Hat เพื่อให้บริการโมเดลภาษาขนาดใหญ่ (LLMs) ในระดับที่พร้อมใช้งานจริง
Red Hat OpenShift AI 3.0 เปิดให้ใช้ llm-d ซึ่งเป็นเวอร์ชันพร้อมใช้งานทั่วไปที่พลิกโฉมวิธีการทำงานของ LLM บน Kubernetes โดยเฉพาะ เพื่อช่วยให้ผู้บริหารฝ่ายสารสนเทศใช้งานการเร่งความเร็วด้วยฮาร์ดแวร์ที่มีมูลค่าสูงได้อย่างเต็มประสิทธิภาพ llm-d ช่วยให้เกิดการอนุมานแบบกระจายอัจฉริยะ (intelligent distributed inference) โดยใช้คุุณประโยชน์จากระบบการผสานการทำงานของ Kubernetes และประสิทธิภาพของ vLLM ที่ได้รับการพิสูจน์ประสิทธิภาพแล้ว ผสมผสานกับเทคโนโลยีโอเพ่นซอร์สสำคัญอื่น ๆ เช่น Kubernetes Gateway API Inference Extension, NVIDIA Dynamo (NIXL) KV Transfer Library, และ DeepEP Mixture of Experts (MoE) communication library, ซึ่งช่วยให้องค์กรสามารถ
ลดต้นทุนและปรับปรุงเวลาในการตอบสนอง ด้วยระบบจัดตารางรันโมเดลแบบ Inference-aware ที่ชาญฉลาด พร้อมระบบให้บริการแบบแยกส่วน (disaggregated serving)
มอบความเรียบง่ายในการดำเนินงานและความน่าเชื่อถือสูงสุด ด้วยแนวทางที่ชัดเจนและมีมาตรฐาน (Well-lit Paths) ที่ช่วยปรับปรุงขั้นตอนการนำโมเดลไปใช้งานบน Kubernetes ได้อย่างเต็มรูปแบบ
เพิ่มความยืดหยุ่นสูงสุด ด้วยการรองรับการทำงานข้ามแพลตฟอร์ม (cross-platform support) เพื่อปรับใช้การอนุมาน LLM (LLM inference) กับ hardware accelerators ที่หลากหลาย รวมถึง NVIDIA และ AMD
llm-d สร้างบนพื้นฐานของ vLLM โดยพัฒนาจากเอ็นจิ้นการอนุมานที่มีประสิทธิภาพสูงเริ่มตั้งแต่แบบโหนดเดียว (single-node) ไปจนถึงระบบการให้บริการแบบกระจายศูนย์ (distributed) มีความเสถียร และปรับขนาดได้ ระบบนี้ได้รับการผสานการทำงานกับ Kubernetes อย่างมั่นคง เพื่อมอบประสิทธิภาพที่คาดการณ์ได้ วัดผลตอบแทนจากการลงทุนได้ และการวางแผนโครงสร้างพื้นฐานที่มีประสิทธิภาพ การเพิ่มประสิทธิภาพทั้งหมดนี้ตอบโจทย์การจัดการ LLM workloads ที่มีความผันผวนสูง และการให้บริการโมเดลขนาดใหญ่ เช่น โมเดล Mixture-of-Experts (MoE)
แพลตฟอร์มแบบรวมศูนย์เพื่อการทำงานด้าน AI ร่วมกัน
Red Hat AI 3 มอบประสบการณ์ที่ครบวงจรและยืดหยุ่น ตอบโจทย์ความต้องการด้านการทำงานร่วมกันในการพัฒนาโซลูชัน Generative AI ที่พร้อมใช้งานจริง แพลตฟอร์มนี้ถูกออกแบบมาให้ช่วยส่งเสริมการร่วมมือและการเชื่อมโยงเวิร์กโฟลว์ของทุกทีมไว้ด้วยกันบนแพลตฟอร์มเดียว เพื่อให้วิศวกรแพลตฟอร์ม และวิศวกร AI ขับเคลื่อนกลยุทธ์ด้าน AI อย่างมีประสิทธิภาพ ความสามารถใหม่ที่ออกแบบมาเพื่อเพิ่มประสิทธิภาพและความคล่องตัวในการขยายจากขั้นตอนทดลองแนวคิด (Proof-of-Concept) ไปสู่การใช้งานจริงในระดับองค์กร (Production) ประกอบด้วยความสามารถต่าง ๆ ดังนี้
Model as a Service (MaaS) ต่อยอดจากเทคโนโลยี distributed inference เพื่อให้องค์กรสามารถเป็นผู้ให้บริการโมเดลของตนเองได้ (self-managed MaaS) โดยให้ทีม IT สามารถให้บริการ โมเดลกลาง (shared models) แก่ทีมพัฒนา AI และแอปพลิเคชันต่าง ๆ ได้แบบ on-demand ผ่านโครงสร้างพื้นฐานภายในองค์กร แนวทางนี้ช่วย บริหารต้นทุนได้ดียิ่งขึ้น และรองรับกรณีการใช้งานที่ ไม่สามารถใช้บริการ AI สาธารณะได้ เนื่องจากข้อจำกัดด้าน ความเป็นส่วนตัวและความปลอดภัยของข้อมูล
AI hub ช่วยให้วิศวกรแพลตฟอร์มสามารถสำรวจ ติดตั้งใช้งาน และจัดการสินทรัพย์ AI พื้นฐานได้ โดยมีศูนย์กลางที่รวบรวมแคตตาล็อกโมเดลต่าง ๆ ที่คัดสรรให้เลือกใช้ภายในองค์กรซึ่งรวมถึงโมเดล Gen AI ที่ผ่านการปรับแต่งอย่างเหมาะสม, ระบบ Registry เพื่อจัดการไลฟ์ไซเคิลของโมเดล และสภาพแวดล้อมสำหรับการติดตั้งและติดตาม เพื่อกำหนดค่าและตรวจสอบสินทรัพย์ AI ทั้งหมดที่ทำงานอยู่บน OpenShift AI
Gen AI studio มอบสภาพแวดล้อมที่ให้วิศวกร AI ได้ลงมือปฏิบัติจริงในการโต้ตอบกับโมเดลและสร้างต้นแบบแอปพลิเคชัน Gen AI ใหม่ได้อย่างรวดเร็ว วิศวกรสามารถค้นพบและเรียกใช้งานโมเดลและเซิฟเวอร์ MCP ที่มีอยู่ได้ง่ายขึ้นด้วยคุณสมบัติ AI assets endpoint ซึ่งช่วยให้การเชื่อมต่อระหว่างโมเดลกับเครื่องมือภายนอกระบบเป็นไปอย่างราบรื่น อีกทั้งยังมี playground ในตัวที่เป็นสภาพแวดล้อมเชิงโต้ตอบแบบไร้สถานะ (stateless) เพื่อทดลองโมเดล ทดสอบคำสั่ง (prompts) และปรับแต่งพารามิเตอร์ให้เหมาะสมกับกรณีใช้งาน เช่น chat และการสร้างคำตอบจากข้อมูลที่ดึงมา (Retrieval-Augmented Generation: RAG)
การพัฒนาทำได้ง่ายขึ้นด้วยโมเดลใหม่ที่ได้รับการตรวจสอบและปรับแต่งจาก Red Hat โดยมีการคัดสรรโมเดลโอเพ่นซอร์สยอดนิยม เช่น gpt-oss ของ OpenAI, DeepSeek-R1 และโมเดลเฉพาะทาง เช่น Whisper สำหรับการแปลงเสียงเป็นข้อความ (speech-to-text) และ Voxtral Mini สำหรับ agents ที่สั่งงานด้วยเสียง (voice-enabled agents)
สร้างรากฐานให้กับ AI agents รุ่นต่อไป
AI agents กำลังจะพลิกโฉมวิธีการสร้างแอปพลิเคชัน และเวิร์กโฟลว์ที่อิสระและซับซ้อนจะสร้างความต้องการสูงต่อความสามารถในการอนุมาน Red Hat OpenShift AI 3.0 วางรากฐานสำหรับระบบ agentic AI ที่สามารถขยายขนาดได้อย่างต่อเนื่อง ซึ่งไม่เพียงแต่ยกระดับความสามารถการอนุมานเท่านั้น แต่ยังมาพร้อมคุณสมบัติและการปรับปรุงใหม่ ๆ ที่เน้นไปที่การจัดการ agent
Red Hat นำเสนอ Unified API layer (เลเยอร์ API แบบรวมศูนย์ ) ที่พัฒนาบน Llama Stack เพื่อเร่งกระบวนการสร้างและปรับใช้ agent ซึ่งช่วยให้การพัฒนาสอดคล้องกับมาตรฐานอุตสาหกรรมต่าง ๆ เช่น โปรโตคอลอินเทอร์เฟซ LLM ที่รองรับกับ OpenAI นอกจากนี้เพื่อส่งเสริมระบบนิเวศที่เปิดกว้างและทำงานร่วมกันได้อย่างยืดหยุ่น Red Hat ยังเป็นหนึ่งในผู้บุกเบิกการใช้งาน Model Context Protocal (MCP) ซึ่งเป็นมาตรฐานใหม่ที่ทรงพลังและกำลังเป็นที่ยอมรับ ช่วยให้การให้การสื่อสารระหว่างโมเดล AI และเครื่องมือภายนอกเป็นไปอย่างมีประสิทธิภาพ ซึ่งเป็นคุณสมบัติพื้นฐานสำหรับ AI agents ที่ทันสมัย
Red Hat AI 3 ยังแนะนำชุดเครื่องมือใหม่สำหรับการปรับแต่งโมเดล ที่ออกแบบให้มีลักษณะเป็นโมดูลาร์และสามารถขยายต่อได้ (modular and extensible toolkit) พัฒนาต่อยอดจากความสามารถของ InstructLab ที่มีอยู่เดิม มาพร้อมไลบราลี Python เฉพาะทางที่ช่วยให้นักพัฒนาสามารถควบคุมและปรับแต่งการทำงานของโมเดลได้อย่างยืดหยุ่นมากขึ้น ชุดเครื่องมือนี้ขับเคลื่อนด้วยโปรเจกต์โอเพ่นซอร์ส เช่น Docling สำหรับการประมวลผลข้อมูล ซึ่งช่วยแปลงและจัดการเอกสารแบบไม่มีโครงสร้าง (unstructured documents) ให้อยู่ในรูปแบบที่ AI สามารถอ่านและประมวลผลได้อย่างคล่องตัว นอกจากนี้ยังมีเฟรมเวิร์กที่ยืดหยุ่นสำหรับการสร้างช้อมูลสังเคราะห์ และ training hub สำหรับการปรับแต่ง LLM (fine-tuning) นอกจากนี้ยังมีการรวม evaluation hub เข้ามาในระบบ เพื่อช่วยให้วิศวกร AI สามารถติดตามและตรวจสอบความถูกต้องของผลลัพธ์ได้อย่างมีประสิทธิภาพ ทำให้สามารถใช้ข้อมูลกรรมสิทธิ์ (proprietary data) ของตนเองได้อย่างมั่นใจ เพื่อให้ได้ผลลัพธ์ AI ที่แม่นยำและตรงความต้องการมากขึ้น
- 030
โปรดอ่านก่อนแสดงความคิดเห็น
1.กรุณาใช้ถ้อยคำที่ สุภาพ เหมาะสม ไม่ใช้ ถ้อยคำหยาบคาย ดูหมิ่น ส่อเสียด ให้ร้ายผู้อื่น สร้างความแตกแยกในสังคม งดการใช้ถ้อยคำที่ดูหมิ่นหรือยุยงให้เกลียดชังสถาบันชาติ ศาสนา พระมหากษัตริย์
2.หากพบข้อความที่ไม่เหมาะสม สามารถแจ้งได้ที่อีเมล์ online@naewna.com โดยทีมงานและผู้จัดทำเว็บไซด์ www.naewna.com ขอสงวนสิทธิ์ในการลบความคิดเห็นที่พิจารณาแล้วว่าไม่เหมาะสม โดยไม่ต้องชี้แจงเหตุผลใดๆ ทุกกรณี
3.ขอบเขตความรับผิดชอบของทีมงานและผู้ดำเนินการจัดทำเว็บไซด์ อยู่ที่เนื้อหาข่าวสารที่นำเสนอเท่านั้น หากมีข้อความหรือความคิดเห็นใดที่ขัดต่อข้อ 1 ถือว่าเป็นกระทำนอกเหนือเจตนาของทีมงานและผู้ดำเนินการจัดทำเว็บไซด์ และไม่เป็นเหตุอันต้องรับผิดทางกฎหมายในทุกกรณี