Artificial Intelligence

PlAwAnSaI

Administrator
  • ประเภทของการเรียนรู้:
    • ต้องการพยากรณ์การใช้ไฟฟ้าในอนาคต → Prediction
      เนื่องจากเป็นการพยากรณ์แนวโน้มของการใช้ไฟฟ้าในอนาคตจากข้อมูลในอดีต
    • ต้องการพัฒนาระบบที่สามารถแยกประเภทของ Email เป็น Spam หรือไม่ Spam → Classification
      เป็นการจัดประเภทข้อมูล Email ออกเป็นสองกลุ่ม (Spam/ไม่ Spam)
    • วิเคราะห์ข้อมูลการเคลื่อนที่ของประชากรเพื่ออธิบายพฤติกรรม → Descriptive Inference
      เป็นการอธิบายข้อมูลและทำความเข้าใจพฤติกรรมที่เกิดขึ้นจากข้อมูลการเคลื่อนที่ของประชากร
    • พัฒนาระบบที่ช่วยหาวิธีการขนส่งสินค้าที่มีต้นทุนต่ำที่สุด → Optimization
      เป็นการหาวิธีที่มีประสิทธิภาพสูงสุดในการขนส่งสินค้าเพื่อลดต้นทุน
      .
  • ชนิดของข้อมูลที่สามารถนำไปสร้างเป็นภาพได้:
    • UINT8 (Unsigned Integer 8-bit)
      ใช้กันทั่วไปในการเก็บค่า Pixel ของภาพ (0-255) ในภาพแบบ Grayscale และ RGB
    • Float64 (64-bit Floating Point)
      ใช้แทนค่าตัวเลขที่มีทศนิยม แม้ไม่ใช่รูปแบบทั่วไปของภาพ แต่สามารถใช้เก็บค่า Pixel ที่เป็น Normalized Values (เช่น 0.0 ถึง 1.0)
    • Float32 (32-bit Floating Point)
      เช่นเดียวกับ Float64 มักใช้ในการประมวลผลภาพแบบ Deep Learning หรือ Graphic Computer
      .
  • อุปกรณ์สำหรับใช้ในการพัฒนา IoT:
    • ESP8266: เป็น Module Wi-Fi ราคาถูกที่ได้รับความนิยมในการพัฒนา IoT
    • Arduino Board: Board Micro Controller ยอดนิยมที่ใช้พัฒนาอุปกรณ์ IoT
    • Raspberry Pi: Computer ขนาดเล็กที่ใช้กันมากในโครงการ IoT
      .
  • ค่า WER (Word Error Rate) ตามสูตรที่กำหนด: 𝑊𝐸𝑅 = (𝑆 + 𝐼 + 𝐷) / 𝑁
    ข้อมูลที่กำหนด:
    Target Tokens: ["ชอบ", "กิน", "ไก่ทอด", "และ", "ส้มตำ"]
    Generated Tokens: ["ชอบ", "กิน", "กลิ่น", "ไก่ทอด", "ส้มตำ", "มา"]
    วิเคราะห์ความผิดพลาด:
    S (Substitutions - คำที่แทนที่กัน) "กลิ่น" ถูกแทนที่ "ไก่ทอด" (1 คำ)
    D (Deletions - คำที่หายไป) "และ" หายไป (1 คำ)
    I (Insertions - คำที่เพิ่มเข้ามา) "มา" ถูกเพิ่มเข้ามา (1 คำ)
    N (จำนวนคำใน Target Sentence) ["ชอบ", "กิน", "ไก่ทอด", "และ", "ส้มตำ"] → 5 คำ
    แทนค่าลงในสูตร:= (1+1+1) / 5 = 3/5

  • นิพจน์ (P → Q) ∧ (Q → P) หมายถึง P และ Q มีค่าความจริงเหมือนกันเสมอ
    นี่คือความหมายของ "การเชื่อมโดยสมมูล" (Biconditional) ซึ่งเขียนแทนด้วย P ⟷ Q

  • Unsupervised Learning เป็น Technique การเรียนรู้ของเครื่องที่ไม่ต้องการ Label ในข้อมูล Input ในการฝึก

  • การคำนวณจาก ตำแหน่ง End-effector ของแขนกลหุ่นยนต์ เพื่อหามุมองศาการเคลื่อนที่ของ แต่ละจุดหมุน (Angle of Joint) เป็นปัญหา Inverse Kinematics (IK)
    Inverse Kinematics (IK): ใช้คำนวณมุมของข้อต่อเพื่อให้ End-effector ไปยังตำแหน่งที่ต้องการ
    Direct Kinematics (DK): ใช้หาตำแหน่งของ End-effector จากมุมของข้อต่อ (ตรงข้ามกับ IK)

  • หากมีข้อมูลเสียงจำนวนน้อย การรู้จำเสียงพูดด้วย HMM จะให้ประสิทธิภาพดีกว่าแบบจำลอง DNN แบบทั่วไป เพราะ HMM (Hidden Markov Model) ใช้ข้อมูลที่มีโครงสร้างชัดเจนและทำงานได้ดีเมื่อข้อมูลมีขนาดเล็ก ขณะที่ DNN (Deep Neural Network) ต้องการข้อมูลจำนวนมาก

    การรู้จำเสียงพูดแบบจำลอง DNN จะต้องอาศัยคลังข้อมูลจำนวนมากจึงจะได้แบบจำลองมีประสิทธิภาพ เพราะ DNN ต้องการข้อมูลขนาดใหญ่เพื่อเรียนรู้รูปแบบเสียงพูดอย่างมีประสิทธิภาพ

    ในกรณีทั่วไป HMM เร็วกว่า DNN เพราะมีโครงสร้างที่ง่ายกว่า แต่ให้ความแม่นยำน้อยกว่าเมื่อเทียบกับ DNN บนข้อมูลขนาดใหญ่

    หากมีข้อมูลขนาดใหญ่มากๆ เช่น 1,000 ชั่วโมง แบบจำลอง DNN จะให้ประสิทธิภาพดีกว่าแบบจำลอง HMM เพราะ DNN สามารถเรียนรู้คุณลักษณะเชิงลึกจากข้อมูลจำนวนมาก ทำให้แม่นยำกว่า HMM

  • เครือข่ายประสาทเทียม (Neural Network) เป็น Technique การเรียนรู้เชิงลึกที่ทรงพลัง เหมาะอย่างยิ่งสำหรับงานที่เกี่ยวข้องกับการรู้จำรูปแบบและการจำแนกประเภท เช่น การรู้จำและจำแนกตัวเลขที่เขียนด้วยมือจากภาพ เครือข่ายประสาทเทียมได้รับแรงบันดาลใจมาจากเครือข่ายประสาทชีวภาพในสมองมนุษย์

  • ระบบ AI ที่มีปฏิสัมพันธ์กับสภาพแวดล้อมที่เปลี่ยนแปลงตลอดเวลาและต้องเรียนรู้การกระทำที่เหมาะสมที่สุดโดยอาศัยการเรียนรู้แบบ Reinforcement ตัวอย่างเช่น ระบบ Self-driving Car อาจได้รับรางวัลเชิงบวกสำหรับการขับขี่ที่ปลอดภัยและมีประสิทธิภาพ และได้รับบทลงโทษเชิงลบสำหรับการชนหรือการละเมิดกฎจราจร

  • Embedding มีบทบาทสำคัญในการแสดงและทำความเข้าใจความหมายของคำและภาษา, Model ภาษาขนาดใหญ่ (LLMs) มักได้รับการฝึกฝนบนข้อมูลข้อความจำนวนมหาศาล และ Embedding ถูกใช้เพื่อแสดงคำหรือ Token ในข้อมูลนี้ในรูปแบบของ Vector เชิงตัวเลข

  • Fine-tuning คือกระบวนการปรับแต่ง Model ภาษาที่ผ่านการฝึกฝนมาก่อนแล้ว เพื่อให้สามารถทำงานเฉพาะทางได้ โดยการฝึกฝนเพิ่มเติมบนข้อมูลที่มีการติดฉลาก (Label) สำหรับงานเหล่านั้น

  • Multimodal Model ถูกออกแบบมาเป็นพิเศษเพื่อรองรับข้อมูลนำเข้าจากหลายรูปแบบ เช่น ข้อความ ภาพ เสียง และ VDO, Model เหล่านี้สามารถผสมผสานและประมวลผลข้อมูลจากแหล่งข้อมูลนำเข้าที่แตกต่างกันได้

  • Amazon Comprehend เป็นบริการประมวลผลภาษาธรรมชาติ (Natural Language) ที่สามารถวิเคราะห์ข้อความและดึงข้อมูลเชิงลึกต่างๆ เช่น ความรู้สึก, Entity, วลีสำคัญ (Key Phrase) และหัวข้อ (Topic)

  • Amazon SageMaker เป็นบริการที่มีการจัดการอย่างเต็มรูปแบบ (Fully Managed) ซึ่งให้บริการ Machine Learning Lifecycle อย่างครบถ้วน รวมถึงการเตรียมข้อมูล การสร้าง Model การฝึกสอน (Training), การปรับแต่ง (Tuning), และการ Deploy

  • การประมวลผลเอกสารอัจฉริยะ (Intelligent Document Processing/IDP) คือรูปแบบการใช้งานที่ดึงและจำแนกข้อมูลสารสนเทศจากข้อมูลที่ไม่มีโครงสร้างหรือที่มีโครงสร้าง สร้างสรุปความ และแสดงข้อมูลเชิงลึกที่นำไปดำเนินการได้จริง

    การจดจำใบหน้า คือ Software ที่ระบุหรือยืนยันตัวตนของบุคคลโดยใช้ใบหน้า

    Computer Vision คือรูปแบบการใช้งาน AI ที่เกี่ยวข้องกับการวิเคราะห์และทำความเข้าใจภาพและ VDO Digital

    การตรวจจับการหลอกลวง คือรูปแบบการใช้งาน AI ที่ระบุและป้องกันกิจกรรมที่เป็นการหลอกลวง เช่น การฉ้อโกงบัตร Credit หรือภัยคุกคามการรักษาความปลอดภัยทาง Cyber

  • การใช้ Algorithm ของ Computer Vision และ Machine Learning (ML) เพื่อตรวจสอบการควบคุมคุณภาพบนสายการผลิตโดยอัตโนมัติ เป็นการนำ Technology AI/ML ไปใช้ได้เหมาะสม โดยวิธีนี้ใช้ระบบ AI/ML เพื่อตรวจจับรูปแบบและความผิดปกติ จึงตรวจสอบคุณภาพได้อย่างสม่ำเสมอและปรับขนาดได้ ซึ่งก็จะช่วยปรับปรุงคุณภาพของผลิตภัณฑ์และลดความจำเป็นในการตรวจสอบด้วยตนเองได้ในท้ายที่สุด

  • Technique ของ ML:
    • การถดถอย ใช้แก้ปัญหาที่ต้องอาศัยการคาดการณ์ค่าตัวเลขแบบต่อเนื่อง (เช่น คาดการณ์ราคาขายบ้าน)
    • การจำแนกประเภทเป็น Technique การเรียนรู้แบบมีผู้ดูแลที่ใช้กำหนดประเภทหรือหมวดหมู่ให้กับ Instance ข้อมูลใหม่ที่ยังไม่เคยเห็น โดยอิงตาม Model ที่ผ่านการฝึกมาแล้ว
    • การแบ่งกลุ่ม Cluster จัดกลุ่มข้อมูลเป็น Cluster ต่างๆ ตามคุณสมบัติที่คล้ายกันหรือระยะห่างระหว่างจุดข้อมูล เพื่อให้เข้าใจคุณลักษณะของ Cluster เฉพาะได้ดีขึ้น
    • การลดมิติข้อมูลเป็น Technique การเรียนรู้แบบไม่มีผู้ดูแลที่ใช้เพื่อลดจำนวนคุณสมบัติหรือมิติในชุดข้อมูลหนึ่ง โดยที่ยังคงข้อมูลหรือรูปแบบที่สำคัญที่สุดไว้ตามเดิม
      .
  • ความสามารถส่วนหนึ่งของระบบ Generative AI สำหรับการใช้งานทางธุรกิจ:
    • การปรับให้เหมาะกับแต่ละบุคคล: Generative AI สามารถสร้างเนื้อหาเฉพาะบุคคลที่ปรับให้เหมาะกับความต้องการหรือลักษณะเฉพาะของแต่ละบุคคล ซึ่งช่วยปรับปรุงประสบการณ์และการมีส่วนร่วมของผู้ใช้ให้ดียิ่งขึ้น
    • ความสามารถในการปรับขนาด: เมื่อผ่านการฝึกมาแล้ว Model Generative AI จะสามารถสร้างเนื้อหาจำนวนมากได้อย่างรวดเร็ว ทำให้ Model นี้เหมาะสำหรับงานที่ต้องผลิตเนื้อหาปริมาณมาก
    • ความง่ายในการใช้งาน: Generative AI ทำให้งานที่ซับซ้อนง่ายขึ้นได้ ด้วยการทำให้กระบวนการสร้างเนื้อหาดำเนินไปเองอัตโนมัติ ตัวอย่างเช่น Model ภาษา AI สามารถสร้างข้อความที่เหมือนกับสร้างด้วยมนุษย์ ซึ่งจะลดเวลาและภาระงานที่จำเป็นสำหรับการสร้างเนื้อหาให้น้อยลง
      .
  • ความท้าทายของ Generative AI:
    • ความไม่แน่นอนเป็นความท้าทายที่ Model สร้าง Output ที่ต่างไปจากเดิมทุกครั้งที่ Run จากข้อมูล Input เดียวกัน
    • ความไม่เหมาะสมเกิดขึ้นเมื่อ Model สร้างเนื้อหาที่กระตุ้นโทสะ สร้างความขุ่นเคือง หรือไม่เหมาะสม
    • ความเสี่ยงทางสังคมเกิดขึ้นเมื่อ Model สร้างเนื้อหาไม่พึงประสงค์ที่อาจส่งผลเสียต่อองค์กร
    • ผลลัพธ์เพี้ยนเกิดขึ้นเมื่อ Model สร้างผลคำตอบที่ไม่ถูกต้อง ไม่สอดคล้องกับข้อมูลสำหรับฝึก
      .
  • ตัวชี้วัดทางธุรกิจที่เหมาะสำหรับการประเมินประสิทธิภาพของระบบสนับสนุนลูกค้า คือความพึงพอใจของลูกค้าซึ่งเป็นตัวชี้วัดที่สำคัญสำหรับการประเมินประสิทธิภาพของระบบ เนื่องจากจะวัดโดยตรงว่าระบบตอบสนองความต้องการและตรงตามความคาดหวังของลูกค้าเพียงใด

    ประสิทธิภาพข้ามกลุ่มธุรกิจมีความเกี่ยวข้องกับระบบสนับสนุนลูกค้าน้อยกว่า เพราะจะมุ่งเน้นที่สินค้าหรือบริการเฉพาะ

    รายได้เฉลี่ยต่อผู้ใช้เป็นการวัดจำนวนเงินเฉลี่ยที่ได้รับจากลูกค้าแต่ละราย

    อัตราการ Conversion เหมาะจะใช้กับโครงการริเริ่มด้านการขายและการตลาดมากกว่าการสนับสนุนลูกค้า
:cool:
 
Last edited:

PlAwAnSaI

Administrator
  • AI ที่มีความรับผิดชอบไม่ได้จำกัดอยู่เฉพาะ Generative AI แม้ว่าความคิดสร้างสรรค์ ผลิตภาพ และการเชื่อมต่อจะเป็นข้อดีของ AI ที่มีความรับผิดชอบ แต่สิ่งเหล่านี้ไม่ได้เป็นนิยามของ AI ที่มีความรับผิดชอบ AI ที่มีความรับผิดชอบหมายถึงมาตราฐานในการยึดมั่นต่อแนวปฏิบัติที่มีความรับผิดชอบ และลดความเสี่ยงที่อาจเกิดขึ้นและผลลัพธ์เชิงลบจากการใช้งาน AI

  • ในการหลีกเลี่ยงการยึดโยงข้อมูลน้อยและมากเกินไป Model ควรได้รับการฝึกให้มี Bias และความแปรปรวนต่ำ หาก Bias หรือความแปรปรวนสูง Model จะทำงานได้ไม่ดี

  • ความท้าทายของ AI ที่มีความรับผิดชอบ:
    • เนื้อหาที่ไม่เหมาะสมอธิบายได้ว่า เป็นผลลัพธ์ของ Model พื้นฐานที่แสดงออกในรูปแบบที่แสดงความเกลียดชัง คุกคาม ดูหมิ่น หรือสร้างความเสื่อมเสียต่อบุคคลหรือกลุ่มบุคคล
    • LLM รุ่นแรกๆ นั้นมีแนวโน้มจะผลิตผลลัพธ์ที่มาจากการทำซ้ำข้อความของข้อมูลสำหรับฝึกแบบคำต่อคำ ซึ่งส่งผลให้เกิดข้อกังวลด้านความเป็นส่วนตัวและลิขสิทธิ์เกี่ยวกับทรัพย์สินทางปัญญา การนำแนวปฏิบัติ AI ที่มีความรับผิดชอบไปใช้สามารถช่วยเอาชนะความท้าทายเหล่านี้ได้
      .
  • การกำกับดูแล AI ให้กระบวนการที่เป็นแนวทางและกลไกเชิงสถาบันเพื่อรับรองความรับผิดชอบ การลดความเสี่ยง และการตรวจสอบการใช้ AI ตั้งแต่การวิจัยและพัฒนา (R&D) ไปจนถึงการนำไปใช้จริง สิ่งนี้ส่งเสริมการเพิ่มพูนประโยชน์สูงสุดต่อสังคมไปพร้อมๆ กับการลดอันตรายที่เกิดจาก AI การกำกับดูแลเป็นสิ่งสำคัญสำหรับการนำ AI ไปใช้อย่างมีความรับผิดชอบ

  • ความสามารถในการอธิบายช่วยให้ผู้ใช้สามารถตรวจสอบ Function การทำงานของระบบ ตรวจหา Bias ที่ไม่พึงประสงค์ เพิ่มการควบคุมที่มีประโยชน์โดยมนุษย์ และสร้างความไว้วางใจในระดับเหมาะสมต่อระบบ AI ได้ มิตินี้ของ AI ส่งเสริมการพัฒนาและการนำ Technology AI ไปใช้จริงอย่างมีความรับผิดชอบเพื่อประโยชน์ของสังคม หากไม่มีความสามารถในการอธิบาย AI อาจสูญเสียความไว้วางใจจากสาธารณชนเมื่อเกิดข้อผิดพลาดที่ยากต่อการทำความเข้าใจ

  • Amazon SageMaker Clarify ให้เครื่องมือที่สร้างเพื่อวัตถุประสงค์เฉพาะเพื่อให้ได้ข้อมูลเชิงลึกที่มากขึ้นเกี่ยวกับ Model ML และข้อมูลที่อ้างอิงจาก Metric เช่น ความแม่นยำ ความทนทาน เนื้อหาที่ไม่เหมาะสม และ Bias เพื่อปรับปรุงคุณภาพของ Model และสนับสนุนโครงการริเริ่มด้าน AI ที่มีความรับผิดชอบ
    สามารถใช้ในการประเมิน Model และให้ความสามารถในการอธิบายสำหรับ Model อย่างไรก็ตาม ไม่สามารถใช้ในการบันทึกข้อมูลเกี่ยวกับ Model ที่นักพัฒนาจะฝึกได้

  • AI Service Card เป็นเอกสารประกอบรูปแบบหนึ่งเกี่ยวกับ AI ที่มีความรับผิดชอบ ซึ่ง Team สามารถเข้าถึงข้อมูลทั้งหมดที่รวบรวมไว้ในที่เดียว โดยเป็นข้อมูลเกี่ยวกับกรณีใช้งานและข้อจำกัดที่ตั้งใจไว้, ตัวเลือกการออกแบบ AI ที่มีความรับผิดชอบ และแนวปฏิบัติที่ดีที่สุดในการนำไปใช้จริงและการเพิ่มประสิทธิภาพสำหรับบริการ AI ของ AWS
    มันเป็นเอกสารประกอบด้านความโปร่งใสที่ AWS ให้เกี่ยวกับเครื่องมือ AI ที่เสนอให้ลูกค้าใช้ เอกสารนี้ไม่สามารถปรับแต่งได้

  • การติดตามตรวจสอบมีความสำคัญในการดูแลจัดการ Model ให้มีคุณภาพสูงอยู่เสมอ และช่วยให้แน่ใจว่าการคาดการณ์มีความแม่นยำ
    • SageMaker Model Monitor จะตรวจจับและแจ้งเตือนผู้ใช้เกี่ยวกับการคาดการณ์ที่ไม่ถูกต้องจาก Model ที่ถูกติดตั้งใช้งานโดยอัตโนมัติ
    • และเมื่อใช้งาน Amazon Augmented AI (A2I) ผู้ใช้จะสามารถนำการตรวจทานโดยมนุษย์มาใช้ในการคาดการณ์ของ ML ได้เมื่อจำเป็นต้องมีการกำกับดูแลโดยมนุษย์
      .
  • การกำหนดขอบเขตกรณีใช้งานของ App อย่างแคบจะช่วยให้เลือก Model ที่ดีที่สุดสำหรับ App ได้ นโยบายการกำกับดูแลและความรับผิดชอบในการติดตามตรวจสอบ Model มีความสำคัญ แต่ไม่ได้มีผลกระทบต่อการเลือก Model สำหรับ App โดยพื้นฐาน

  • การเพิ่มข้อมูล (Data Augmentation) สามารถใช้เพื่อสร้าง Instance ใหม่ของกลุ่มที่มีตัวแทนน้อย สิ่งนี้สามารถช่วยปรับสมดุลชุดข้อมูลและป้องกันไม่ให้เกิด Bias ที่เอนเอียงหากกลุ่มที่มี มีตัวแทนมากกว่า ได้

  • การเลือก Model หรือกรองเนื้อหาอันตรายที่ Generative AI อาจสร้างขึ้น:
    • เมื่อมีการประเมิน Model บน Amazon Bedrock, Team ก็จะสามารถประเมิน เปรียบเทียบ และเลือก Model พื้นฐานที่ดีที่สุดสำหรับกรณีใช้งานของตนได้
    • Guardrails สำหรับ Amazon Bedrock จะช่วยให้ Team สามารถปรับใช้มาตรการป้องกันให้แก่ App Generative AI ของตนได้ สิ่งนี้สามารถช่วยกรองเนื้อหาที่เป็นอันตรายได้

      ส่วน:
    • SageMaker Data Wrangler สามารถใช้เพื่อปรับสมดุลข้อมูลในกรณีที่มีความไม่สมดุล
    • Amazon A2I สามารถใช้สร้างขั้นตอนการทำงานที่ต้องการการตรวจทานการคาดการณ์ของ ML โดยมนุษย์
    • SageMaker Model Dashboard สามารถใช้เป็นศูนย์กลางในการเก็บข้อมูลพฤติกรรมของ Model ในระบบการผลิตสำหรับ Team
      .
  • ข้อมูลเชิงลึกที่ Model ที่โปร่งใสและอธิบายได้ ทำให้ Model ง่ายต่อการแก้ไขจุดบกพร่องและปรับปรุงเพื่อเพิ่มประสิทธิภาพ นอกจากนี้ยังช่วยสร้างความไว้วางใจกับผู้ใช้
    ความเสี่ยงบางประการที่ควรพิจารณาสำหรับ Model ที่โปร่งใสและอธิบายได้คือ Model อาจซับซ้อนและมีค่าใช้จ่ายในการพัฒนาสูงกว่า นอกจากนี้ยังมีความเสี่ยงต่อการละเมิดในเรื่องการรักษาความปลอดภัยได้มากขึ้น

  • นักพัฒนาสามารถใช้ SageMaker Autopilot เพื่อให้ข้อมูลเชิงลึกที่สามารถอธิบายได้ว่า Model ML ทำการคาดการณ์อย่างไร
    AWS HealthScribe เป็นบริการที่เป็นไปตามมาตรฐาน HIPAA สำหรับการสร้าง App ทางการแพทย์โดยอัตโนมัติจากการวิเคราะห์การสนทนาระหว่างผู้ป่วยและแพทย์

  • นักพัฒนาสามารถใช้ SageMaker Model Card เพื่อให้ความโปร่งใสกับ Model ที่ตนสร้างและฝึก โดยสามารถใช้เพื่อบันทึกและจัดทำเอกสารข้อมูลเพื่อความโปร่งใสได้
    Amazon SageMaker Role Manager เป็นเครื่องมือที่ผู้ดูแลระบบใช้ในการให้สิทธิ์การเข้าถึง

  • Model:
    • Model ที่ให้ความโปร่งใสแก่ระบบเพื่อให้มนุษย์สามารถอธิบายผลลัพธ์ของ Model ได้ โดยอิงตามน้ำหนักและคุณลักษณะเป็นตัวอย่างของความสามารถในการตีความใน Model
    • Model ที่ใช้วิธีการที่ไม่ขึ้นอยู่กับ Model เพื่ออธิบายพฤติกรรมของ Model ในเชิงมนุษย์เป็นตัวอย่างของความสามารถในการอธิบายใน Model
    • Model ที่หลีกเลี่ยงการก่อให้เกิดอันตรายในการโต้ตอบกับโลกเป็นตัวอย่างของความปลอดภัยใน Model
    • Model ที่สามารถควบคุมการคาดการณ์และพฤติกรรมได้โดยการเปลี่ยนแปลงข้อมูลสำหรับฝึกเป็นตัวอย่างของความสามารถในการควบคุม
      .
  • หลักการของการออกแบบที่มุ่งเน้นมนุษย์สำหรับ AI ที่อธิบายได้:
    • การออกแบบเพื่อเสริมการตัดสินใจเป็นหลักการออกแบบที่จะช่วยผู้มีอำนาจตัดสินใจในการทำการตัดสินใจอย่างรอบคอบในสภาพแวดล้อมที่มีแรงกดดันสูงโดยใช้ Technology
    • หลักการออกแบบเพื่อการตัดสินใจที่ปราศจาก Bias เน้นการลด Bias
    • หลักการออกแบบเพื่อการเรียนรู้ของมนุษย์และ AI เน้นการสร้างระบบ AI ที่ดีขึ้น

  • การใช้ภาพความละเอียดสูงระดับ 4K ไม่จำเป็น หากใช้ AI Model ที่มี Input Size เพียง 416x416 Pixel เนื่องจาก:
    .
    1. 🔍 Model จะ Resize ภาพอยู่ดี
      AI Model (เช่น YOLOv3) ที่มี Input Size 416x416 จะ ย่อขนาดภาพต้นฉบับ (ไม่ว่าจะใหญ่แค่ไหน) ให้เหลือ 416x416 ก่อนนำเข้า Model
      ➡️ ดังนั้น ข้อมูลที่เกินมาจาก 4K จะ สูญหายระหว่างการ Resize โดยไม่มีประโยชน์

    2. ⚖️ สิ้นเปลืองทรัพยากรโดยไม่จำเป็น
      การ Load ภาพ 4K:
      • ใช้ หน่วยความจำ (RAM/VRAM) มากขึ้น
      • ใช้ พลังประมวลผล มากขึ้น (CPU/GPU) โดยเฉพาะตอนแปลงหรือ Pre-process ภาพ
      • เพิ่ม เวลา Load/อ่าน File
        ➡️ แต่สุดท้ายข้อมูลถูกย่อเหลือแค่ 416x416 เท่านั้น
        .
    3. 🎯 ไม่มีผลต่อความแม่นยำของ Model
      การให้ Input 4K กับ Model ที่รองรับแค่ 416x416 ไม่ได้เพิ่มคุณภาพการทำนาย เพราะข้อมูลถูกลดขนาดไปอยู่ดี หากต้องการใช้ภาพความละเอียดสูงให้ได้ประโยชน์จริง ต้องใช้ Model ที่รองรับ Input Size ใหญ่กว่านี้
      ใช้ภาพขนาดใกล้เคียง เช่น 512x512 หรือ 640x640 แล้วค่อย Resize ลง จะประหยัดทรัพยากรและเร็วกว่า
      หากต้องการเพิ่มความแม่นยำหรือรายละเอียดในการตรวจจับ อาจพิจารณาใช้:
      • Multi-scale Input
      • Sliding Window หรือ Crop ภาพเป็นส่วนๆ แล้วประมวลผล
        หรือ High-resolution Input กับ Model ที่รองรับ เช่น Input Size 1024x1024
        .
  • คำจำกัดความของปัญญาประดิษฐ์ (Artificial Intelligence – AI) คือ สาขาที่มุ่งเน้นการสร้างเครื่องจักรที่สามารถคิด, เรียนรู้, และแก้ปัญหาได้เหมือนมนุษย์

  • ระบบแนะนำภาพยนตร์หรือเพลงบน Platform Streaming เป็นตัวอย่างหนึ่งของการใช้ AI ในชีวิตประจำวัน

  • เป้าหมายหลักของการเรียนรู้ของเครื่อง (Machine Learning) คือ การทำให้ Computer สามารถเรียนรู้จากข้อมูลและทำการคาดการณ์หรือตัดสินใจได้

  • “Dataset” ในกระบวนการพัฒนา AI หมายถึง ชุดของข้อมูลที่จัดเตรียมไว้เพื่อใช้ในการฝึกฝนและทดสอบ Model AI

  • “Model” ในบริบทของ AI หมายถึง ผลลัพธ์ที่ถูกฝึกฝนให้เรียนรู้จากข้อมูลและสามารถทำการคาดการณ์ได้

  • ขั้นตอนที่สำคัญที่สุดในกระบวนการพัฒนา Model AI ก่อนที่จะนำไปใช้งานจริง คือ การรวบรวมและเตรียมข้อมูล (Data Collection and Preparation)

  • รวบรวมข้อมูล → สร้าง Model → ทดสอบ เป็นลำดับการพัฒนา Model AI ที่ถูกต้อง
:cool:
 
Last edited:

PlAwAnSaI

Administrator
  • หากต้องการ วัดระยะห่างระหว่างวัตถุในภาพ (หน่วยเป็น Pixel)
    ✅ ควรใช้ “Model Detection” ไม่ใช่ “Classification” เพราะ:
    .
    1. 🎯 วัตถุประสงค์ต่างกันโดยสิ้นเชิง

      จุดประสงค์DetectionClassification
      หา “วัตถุอยู่ตรงไหน”✅ ได้ตำแหน่ง (bounding box)❌ ไม่รู้ตำแหน่ง
      บอกประเภทวัตถุ✅ บอกชนิด + ตำแหน่ง✅ บอกชนิดเท่านั้น
      วัดระยะระหว่างวัตถุ✅ ทำได้ เพราะมีพิกัด❌ ทำไม่ได้ เพราะไม่มีพิกัด

    2. 📦 การวัดระยะ = ต้องรู้ตำแหน่งของวัตถุ
      ตัวอย่าง:
      ถ้าต้องการวัดระยะห่างระหว่าง "รถสองคัน" ในภาพ
      • ต้องรู้ว่า รถแต่ละคันอยู่ตรงไหนใน Pixel (Bounding Box)
      • จากนั้นใช้จุดศูนย์กลางของแต่ละ Box → วัดระยะห่างเป็น Pixel
        Model Object Detection (เช่น YOLO, SSD, Faster R-CNN):
      • ให้ผลลัพธ์เป็น พิกัด (x, y, w, h) ของแต่ละวัตถุ
      • ทำให้สามารถนำไปคำนวณระยะห่างได้ทันที
        .
    3. ❌ Classification ไม่สามารถบอกตำแหน่งวัตถุได้
      Model Classification (เช่น ResNet, VGG, EfficientNet):
      • บอกว่าในภาพมีอะไร เช่น "มีแมว"
      • แต่ไม่รู้ว่าแมวอยู่ตรงไหน
      • ดังนั้นจึง วัดระยะห่างระหว่างวัตถุไม่ได้เลย
        .
  • การเตรียม Dataset ที่มี จำนวนภาพเยอะ แต่มี ความหลากหลายน้อย (Low Diversity)
    ✅ แม้จะมี “ปริมาณ”
    ❌ แต่ คุณภาพของข้อมูลในการเรียนรู้จะต่ำ ซึ่งจะส่งผลเสียต่อการ Train Model AI
    ความหลากหลายสำคัญกว่าแค่จำนวน:

    🔍ผลกระทบหลัก:
    .
    1. Overfitting ง่าย:
      • Model เรียนรู้ "ซ้ำ" จากภาพที่คล้ายกันมากเกินไป
      • ทำให้ จำลักษณะของ Training Set ได้แม่นยำเกินไป
      • แต่ ไม่สามารถ Generalize ไปยังภาพใหม่ที่ต่างออกไป
        .
    2. ประสิทธิภาพต่ำในการใช้งานจริง:
      • Accuracy หรือ mAP อาจดูดีใน Training Set
      • แต่ Performance จะลดลงมากเมื่อเจอภาพจากสถานการณ์ที่ต่างออกไป เช่น มุมกล้องเปลี่ยน, แสงแตกต่าง, วัตถุอยู่ในตำแหน่งใหม่, พื้นหลังเปลี่ยน
        .
    3. เรียนรู้ลักษณะผิด (Bias):
      • Model จะเข้าใจว่า “สิ่งที่เห็นบ่อย” = “ลักษณะทั่วไปของวัตถุ”
      • เช่น หากแมวใน Dataset มีแต่ขนสีขาว → Model อาจไม่รู้จักแมวขนดำ

        🛠 วิธีแก้หรือชดเชย

      • ✅1. เพิ่มความหลากหลายเทียม (Data Augmentation) ใช้ Technique อย่าง:
        • Flip, Rotate, Crop
        • Brightness/Contrast Adjust
        • Blur, Noise
        • CutMix, Mosaic (สำหรับ Detection)
          ➡️ ช่วยสร้าง “ความหลากหลายจำลอง” ให้ Dataset
          .
      • ✅2. เก็บภาพจากหลายสภาพแวดล้อม หากเป็นไปได้:
        • ใช้กล้องหลายตัว
        • ถ่ายในหลายสถานที่, เวลาต่างกัน
        • เปลี่ยนมุม มุมมอง และระยะห่าง
          .
      • ✅3. ใช้ Pretrained Model + Fine-tuning:
        • หาก Dataset ขาด Diversity แต่ยังมีจำนวนมาก
        • ใช้ Model ที่ Pretrain จาก Dataset ใหญ่ เช่น COCO, ImageNet
        • แล้วทำ Fine-tune เฉพาะ Task → ช่วยให้ Model ไม่ Bias จาก Dataset ที่มี
          .
  • การเพิ่มภาพที่ ไม่มีวัตถุที่เราต้องการตรวจจับ (เรียกว่า “Negative Sample”) ลงใน Dataset จะช่วย Model เรียนรู้ได้ดีขึ้น และมี ✅ ประโยชน์หลายด้าน:
    .
    1. 🧠ลด False Positive:
      • ถ้า Dataset มีแต่ภาพที่มีวัตถุเป้าหมาย Model อาจ "เข้าใจผิด" ว่า ทุกภาพต้องมีวัตถุเสมอ
      • นำไปสู่การตรวจจับผิดพลาดในภาพที่ไม่ควรมี (False Positive)
      • การใส่ภาพที่ไม่มีวัตถุ ช่วยให้ Model เรียนรู้ว่า “ภาพเปล่า” หรือ “ฉากธรรมดา” = ไม่ควรมีการตรวจจับ
        .
    2. 🎯เพิ่มความแม่นยำโดยรวม:
      • ทำให้ Model แยกแยะได้ดีขึ้นว่า “อะไรคือวัตถุ” และ “อะไรไม่ใช่”
      • ช่วยให้ Model ตัดสินใจได้แม่นยำมากขึ้น ไม่จับสิ่งที่คล้ายคลึงกันแต่ไม่ใช่วัตถุเป้าหมาย
      • ทำให้ Model เรียนรู้ว่า “ไม่มี” ก็เป็นคำตอบได้
        .
    3. 🧪จำลองสถานการณ์จริง:
      • ในการใช้งานจริง เช่น กล้องวงจรปิด, หุ่นยนต์, หรือระบบตรวจสอบสินค้า
        ➜ บางครั้งจะมีภาพที่ ไม่มีวัตถุเป้าหมายเลย
      • การ Train ด้วยภาพลักษณะนี้ช่วยให้ Model ทำงานได้สมจริงมากขึ้น
      • เพิ่มความสามารถในการ Generalize
        .
    4. 📊สร้าง Balance ให้ Dataset:
      • Dataset ที่มีแต่ Positive Sample (เช่น วัตถุทุกภาพ) จะมี Bias สูง
      • การเพิ่ม Negative Sample ช่วยทำให้ Class Distribution มีความสมดุลมากขึ้น
      • เหมาะกับ Deployment ในโลกจริง

        ⚠️ ข้อควรระวัง:
      • ต้องแน่ใจว่า Negative Image ไม่มีวัตถุที่เกี่ยวข้องจริงๆ
      • ควรมีความหลากหลาย (มุมกล้อง, พื้นหลัง, สภาพแสง, ฯลฯ)
      • อย่าใส่จำนวนมากเกินไปจน Dataset กลายเป็น Unbalanced ในทางตรงข้าม
        .
  • 🔍ปัญหา: วัตถุขนาดเล็กตรวจจับยากเพราะ..:
    • ข้อมูลน้อยใน Pixel: รายละเอียดของวัตถุมีน้อย
    • ถูกลด Resolution ระหว่าง Down-sampling ใน CNN
    • Overlap กับพื้นหลังง่าย
    • Bounding Box ขนาดเล็กมาก จนอาจหายไปจาก Feature Map

      ✅ แนวทางปรับปรุงการตรวจจับวัตถุขนาดเล็ก:
      .
      1. 📸เพิ่มขนาดภาพ Input (Input Resolution)
        • ใช้ Input Image ที่มีความละเอียดสูงขึ้น เช่น จาก 416x416 → 640x640 หรือ 1024x1024
        • ช่วยให้วัตถุขนาดเล็ก “ใหญ่ขึ้น” บน Feature Map
        • Model เช่น YOLOv5, YOLOv8, Faster R-CNN รองรับ Resolution ที่ยืดหยุ่น
          ⚠️ ต้องแลกกับการใช้หน่วยความจำและเวลา Inference ที่เพิ่มขึ้น
          .
      2. 🏗️เลือก Model ที่รองรับการตรวจจับวัตถุขนาดเล็กดี:
        • ใช้ Model ที่มี Multi-scale Prediction และ FPN (Feature Pyramid Network) เช่น YOLOv3/4/5/8, EfficientDet, Faster R-CNN with FPN
        • บาง Model เช่น YOLOv5s6 หรือ YOLOv8x ให้ Resolution และ Receptive Field ที่ดีสำหรับวัตถุเล็ก
          .
      3. 🧠ปรับ Anchor Box / Box Prior ให้เหมาะกับขนาดวัตถุ:
        • หากใช้ YOLO-style models ใช้คำสั่ง k-means เพื่อปรับ Anchor Box Size ให้สอดคล้องกับวัตถุเล็กใน Dataset หรือปรับ Manual ให้มีขนาดเล็กลง
        • ช่วยให้ Model “เริ่มต้น” คาดเดากรอบได้ใกล้เคียงความจริงมากขึ้น
          .
      4. 🖼️ ทำ Data Augmentation แบบเน้นวัตถุเล็ก:
        Technique ที่ช่วยให้วัตถุเล็ก “ชัดขึ้น” ในระหว่างการ Train:
        • Copy-paste วัตถุเล็กลงไปในฉากหลากหลาย
        • Mosaic / MixUp (มีใน YOLOv5, 8) → ทำให้เห็นวัตถุเล็กหลายตำแหน่งในภาพเดียว
        • Random Crop โดยที่ Cropping ไม่ตัดวัตถุเล็กออก
        • Zoom-in แบบ Preserve Bounding Box
          .
      5. 🧪ใช้ Crop + Sliding Window ใน Preprocessing (ถ้าจำเป็น):
        • แบ่งภาพใหญ่ออกเป็นหลายภาพย่อยที่มี Resolution สูงขึ้น (เช่น Crop เป็น Patch ขนาด 640x640)
        • ตรวจทีละส่วน แล้วรวมผลลัพธ์กลับ (Post-processing)
        • เหมาะกับวัตถุเล็กในภาพความละเอียดสูง เช่น Drone, Satellite, หรือกล้องวงจรปิด

  • ในปี ค.ศ. 2021 ปัญญาประดิษฐ์แบบรู้สร้าง (Generative Artificial Intelligence หรือ Al) มีบทบาทที่สำคัญมาก
    AI ประเภทนี้สามารถสร้างเนื้อหาที่เป็นลายลักษณ์อักษร ภาพ และเสียง สร้างเนื้อหาจากข้อมูลในอดีด ข้อมูลที่เรียนรู้ และข้อมูลใหม่ ซึ่งเป็นจุดเริ่มต้นของการปฏิสัมพันธ์แบบปรับแต่งที่เป็นส่วนบุคคลมากขึ้นและปฏิสัมพันธ์ของมนุษย์กับ Technology
    การพัฒนา Model AI 3 รูปแบบ ซึ่งได้แก่ GPT, DALL.E และ Whisper ได้ปูทางสู่โอกาสใหม่ ๆ รวมถึงการสร้าง Technology Microsoft Copilot

  • AI สามารถเลียนแบบความฉลาดของมนุษย์ในบางแง่มุมได้ แต่ AI ทำงานในแบบที่แตกต่างจากความฉลาดของมนุษย์มาก AI จึงไม่มีจิตสำนึก อารมณ์และความสามารถในการเข้าใจบริบท

  • การเรียนรู้ของเครื่อง (Machine Learning) สามารถนำมาใช้เพื่อวัตถุประสงค์หลายอย่าง รวมถึงการฝึกฝน Model AI, การปรับปรุงผลิตภัณฑ์และบริการ การคาดการณ์และการค้นพบข้อมูลเชิงลึกใหม่ที่ถูกซ่อนไว้ก่อนหน้านี้

  • หนึ่งในประโยชน์ของการทำความเข้าใจผู้ใช้เป้าหมายคือเพิ่มประสบการณ์ของผู้ใช้ ไม่ใช่เพื่อดูแลประสบการณ์ของผู้ใช้ซึ่งอาจจำกัดประสบการณ์ของผู้ใช้ได้

  • ประเภทของ Machine Learning ที่ดำเนินการทดลองใช้โดยอัตโนมัติและการตัดสินใจข้อผิดพลาดเพื่อเพิ่มประสิทธิภาพของ Algorithm สูงสุดคือ...การเรียนรู้แบบเสริมแรง

  • ด้วยข้อมูลที่มากขึ้น Algorithm จะมีข้อมูลที่จะเรียนรู้เพิ่มมากขึ้น ซึ่งมักจะนำไปสู่ผลลัพธ์ที่แม่นยำหรือเชื่อถือได้มากขึ้น

  • กระบวนการ Computer ในการประมวลผลและทำความเข้าใจภาษาของมนุษย์ผ่านข้อความโดยอัดโนมัติ เป็นวิธีหนึ่งในการประมวลผลภาษาธรรมชาติที่มุ่งเน้นไปที่ข้อความ

  • Algorithm การจัดประเภทเหมือนกับนักสืบที่จัดประเภท Email แต่ละฉบับว่าเป็น Spam หรือไม่

  • การใช้ Sensor ในตู้เย็นที่รู้ว่าเมื่อนมเหลือน้อยและส่งการแจ้งเตือนให้ซื้อระหว่างทางกลับบ้าน คือ ประโยชน์ของการใช้ Internet of Things (loT) ภายในครัวเรือน

  • Generative Al เป็นปัญญาประดิษฐ์ประเภทหนึ่งที่ได้รับการฝึกฝนด้วยข้อมูลเพื่อสร้างเนื้อหาใหม่ ด้วยการใช้รูปแบบที่พบในข้อมูล สามารถผลิดงานสร้างสรรค์แบบใหม่และแบบดั้งเดิม โดยเลียนแบบจินตนาการของมนุษย์ที่มีความซับซ้อนซ่อนเงื่อน
:cool:
 
Last edited:

PlAwAnSaI

Administrator
  • Model Generative AI ได้รับการฝึกฝนล่วงหน้าโดยใช้ข้อมูลข้อความจำนวนมาก ไม่ใช่การแปลล่วงหน้า นอกจากนี้ ยังใช้สถาปัดยกรรม "Transformer" เป็นการเรียนรู้ของเครื่องที่มีประสิทธิภาพสูงเพื่อจัดการข้อมูลตามลำดับ เช่น ข้อความ ให้มีประสิทธิภาพและแม่นยำยิ่งขึ้น

  • NLP ประกอบด้วยงานหลายงาน เช่น การแปล การวิเคราะห์ความรู้สึก การจดจำเสียงพูด และการแยกส่วนหัวข้อ

  • DALL-E เป็น Model AI ที่พัฒนาโดย OpenAl เพื่อสร้างภาพโดยละเอียดจากคำอธิบายง่าย ๆ และแปลข้อความให้เป็นการแสดงผลด้วยภาพได้อย่างมีประสิทธิภาพ

  • Generative AI แบบข้อความจะใช้ Large Language Models (LLM) เพื่อสร้างการตอบสนองแบบข้อความที่สอดคล้องกันและเป็นไปตามบริบทที่เกี่ยวข้อง LLM ช่วยร่าง Email ที่สามารถแก้ไขและตรวจทานได้ เพื่อช่วยให้หันไปมุ่งเน้นในเรื่องอื่นๆ ได้

  • Generative AI เปิดโอกาสใหม่ ๆ ด้วยความคิดสร้างสรรค์ การแก้ปัญหา ความเห็นอกเห็นใจ และความเป็นผู้นำ

  • ในปี 1996 ความก้าวหน้าที่สำคัญเกิดขึ้นกับการเปิดตัว Windows NT 4.0 ซึ่งได้เปิดตัวบริการการจัดทำดัชนี นวัตกรรมนี้ทำการจัดทำดัชนีเนื้อหาบน Web และการค้นหาข้อความ แทนเนื้อหาข้อความและการค้นหาเว็บ

  • เครื่องมือค้นหามีงานพื้นฐานสามงานได้แก่ การรวบรวมข้อมูล การจัดทำดัชนีและการจัดอันอันดับ
    หนึ่งในงานเหล่านี้คือการสร้าง Catalog ของข้อมูลในฐานข้อมูลขนาดใหญ่มาก โดยจะมีการดำเนินการนี้เมื่อทำดัชนี

  • เครื่องที่ใช้เหตุผลเริ่มต้นด้วยฐานความรู้ที่ป้อนข้อมูลประเภทต่าง ๆ ตั้งแต่ข้อความไปจนถึง Code และดูดซับข้อมูลจากสถานที่ต่าง ๆ บน Internet

  • Microsoft Copilot ผสมผสานพลังของ Model ภาษาขนาดใหญ่เข้ากับความรู้ที่กว้างขวางจาก Internet วิธีการนี้เรียกว่าการสร้างสรรค์เสริมข้อมูล (RAG) ซึ่งรวม Technique การดึงข้อมูลและการสร้างเนื้อหาเข้าด้วยกัน

  • Prompt คือสิ่งที่ป้อนเข้าไปในระบบ Generative Al อย่าง Microsoft Copilot เพื่อบอกให้ระบบรู้ว่าต้องการให้ทำอะไรและอย่างไร ประกอบด้วยสองส่วนสำคัญคือคำสั่งและบริบท คำสั่งเป็นส่วนที่เขียนไว้ของคำสั่งที่ระบุงานและเป้าหมาย ในขณะเดียวกัน บริบทจะให้ข้อมูลสำหรับคำตอบ เช่น ผู้ชมที่ตั้งใจไว้และ Tone ที่ต้องการของการเขียน

  • Best Practice เมื่อเขียนคำสั่งบน Microsoft Copilot คือ:
    1. ทำให้เป็นเรื่องที่น่าสนใจมากขึ้น
    2. เลือก Style ที่เหมาะกับความต้องการ
    3. จัดลำดับความสำคัญของความแม่นยำในการสั่งการโดยตรงของ Copilot ด้วยคำสั่งที่ชัดเจนและกระชับ
    4. ปรับแต่งประสบการณ์
    5. เปลี่ยนหัวข้อของคำถาม
    6. ควบคุมความยาวของคำตอบ
    7. ยอมรับคำตอบที่หลากหลาย
      .
  • ความคิดวิเคราะห์จะช่วยให้ผู้ใช้ Copilot สามารถวิเคราะห์และประเมินข้อมูลได้

  • Microsoft เข้าใจและรับประกันความเป็นส่วนตัวของข้อมูล ดังนั้นจึงต้องมีขั้นตอนเพิ่มเติมเพื่อให้มั่นใจถึงความปลอดภัยและการปกป้องข้อมูล ตัวอย่างเช่น เมื่อสิ้นสุดช่วงการสนทนาใน Copilot ทั้งคำสั่งและการตอบกลับจะถูกลบออก นอกจากนี้ จะไม่มีการเปิดเผยข้อมูลองค์กรของผู้ใช้กับบุคคลที่สาม หากผู้ใช้ไม่อนุญาต

  • หลักการที่สำคัญของ AI ที่มีความรับผิดชอบ:
    1. ภาระความรับผิดชอบ
    2. ความครอบคลุม
    3. ความน่าเชื่อถือและการปกป้อง
    4. ความยุติธรรม
    5. ความโปร่งใส
    6. ความเป็นส่วนตัวและการคุ้มครองข้อมูล
    .
  • การนำเสนอเนื้อหาที่เชื่อถือได้เป็นหนึ่งในสิ่งที่ภาค Technology กำลังทำเพื่อต่อสู้กับ Deepfakes เนื้อหาที่สร้างโดย AI อาจมีเครื่องหมายหรือ Icon พิเศษเพิ่มเข้ามาเพื่อต่อสู้กับ Video ภาพถ่าย หรือเสียงปลอมที่ปรากฏให้เห็นเรื่อย ๆ วิธีนี้จะช่วยให้ระบุถึงแหล่งที่มาและประวัติของเนื้อหาได้

  • การดำเนินการศึกษาแบบ Digital และการพัฒนากำลังคนเป็นวิธีหนึ่งที่แสดงถึงความมุ่งมั่นต่อแนวทางปฏิบัติในการแบ่งปันข้อมูลที่รักษาความเป็นส่วนตัว ซึ่งทำได้โดยการเตรียมความพร้อมให้กับผู้คนด้วยทักษะที่เหมาะสมต่อการเติบโตในสภาพแวดล้อมใหม่

  • สิ่งที่ Microsoft Copilot สามารถทำได้:
    1. เข้าใจบริบท
    2. ให้ข้อมูลที่เกี่ยวข้อง
    3. ให้คำแนะนำที่เฉพาะเจาะจงตามความจำเป็น
    4. สร้างและแก้ไขเอกสาร Email และงานนำเสนอ
    5. แนะนำการปรับปรุง
    6. การแก้ไขไวยากรณ์
    7. การปรับปรุงกระบวนการเขียนให้เรียบง่ายขึ้น
      .
  • ถ้าผู้ใช้มีสิทธิ์ของ Copilot จากองค์กร ผู้ใช้สามารถใช้บัญชีนั้นเพื่อเข้าถึง Copilot ใน App Microsoft 365 ได้

  • Microsoft Copilot สนับสนุนประสบการณ์ที่ครอบคลุมในหลายภาษาได้แก่จีนกลาง (ง่าย), อังกฤษ, ฝรั่งเศส, German, Italy, ญี่ปุ่น, โปรตุเกส (แบบ Brazil) และ Spain

  • เมื่อใช้ Microsoft Copilot มี 3 Style คือ สร้างสรรค์, แม่นยำ, และสมดุล
    สร้างสรรค์ช่วยสร้าง Idea ระดมความคิด หรือเสาะหาแรงบันดาลใจ
    ในขณะที่ Style สมดุลสร้างความกลมกลืนระหว่างเนื้อหาที่ให้ข้อมูลและการแสดงออกที่สร้างสรรค์

  • Plug-in ช่วยให้ Copilot สามารถดำเนินการได้หลากหลายขึ้นและเรียกข้อมูลโดยตรงจากแหล่งข้อมูลของบุคคลที่สาม

  • เพื่อทำ Idea ใน Copilot ให้สำเร็จ ผู้ใช้จำเป็นต้องกำหนดเป้าหมาย ให้บริบท และกำหนดความคาดหวังสำหรับความช่วยเหลือที่ต้องการจาก Copilot

  • วิธีการจัดการเวลาอย่างมีประสิทธิภาพของ Copilot:
    • การเพิ่มประสิทธิภาพของตารางงานและตารางงานส่วนตัว
    • การวางแผนโครงการ
      .
  • เพื่อช่วยผู้ใช้ขยายเครือข่ายอย่างมืออาชีพ ผู้ใช้สามารถสร้างคำสั่งไปยัง Copilot และ Copilot จะสร้าง Email เครือข่ายและส่งไปให้ผู้ติดต่อ จากนั้นจะแนะนำ Template ประวัติย่อ Free จาก Microsoft Create เพื่อแนบไปกับ Email ของผู้ใช้

  • เพื่อช่วยให้ผู้ใช้ค้นหาเส้นทางใหม่ที่สอดคล้องกับทักษะและความสนใจ ตัวอย่าง Prompt ที่สามารถส่งให้กับ Copilot:
    "ฉันกำลังคิดเปลี่ยนไปทำงานเกี่ยวกับการออกแบบ UX ฉันถนัดด้านวิศวกรรมเครื่องกล และความเป็นผู้นำของ Team ฉันควรพิจารณาทางเลือกอาชีพใดและฉันควรพัฒนาทักษะใด"

  • Copilot สามารถช่วยให้ผู้ใช้เข้าใจข้อมูลใน Spreadsheet โดยการวิเคราะห์โครงสร้างและความสัมพันธ์ระหว่าง Cell

  • Copilot สามารถช่วยผู้ใช้ในที่ทำงานในฐานะเพื่อนร่วมงาน AI แบบเหนือชั้น ด้วยการใช้ Prompt เช่น "สร้าง Story Board สำหรับฉากมังกรใน Script ของฉัน" เพื่อใช้สถานการณ์สมมติของ Copilot ที่อยู่ในฐานะเพื่อนร่วมทางของความคิดสร้างสรรค์

  • Rijksmuseum หรือพิพิพิธภัณฑสถานแห่งชาติ Netherlands เป็นสมาคมที่ทำงานอย่างใกล้ชิดกับชุมชนคนตาบอดและสายตาเลือนลาง และกำลังทำงานเพื่อทำให้งานศิลปะสามารถเข้าถึงได้มากขึ้นผ่านคำอธิบายข้อความโดยละเอียด ซึ่งได้รับการสนับสนุนอย่างเต็มที่จาก Azure Al Computer Vision และ Azure OpenAl

  • ประโยชน์ของการส่งเสริมการใช้ AI อย่างมีความรับผิดชอบในรัฐบาล:
    • การปรับปรุงบริการสำหรับประชาชน
    • การสนับสนุนข้าราชการด้วยเครื่องมือใหม่
    • การปรับปรุง Connection
      .
  • การทำงานร่วมกับชุมชนที่ได้รับผลกระทบจากภัยพิบัติหรือ SEEDS (กลุ่มเพื่อการพัฒนาทางนิเวศวิทยาและสิ่งแวดล้อมที่ยั่งยืน) เป็นองค์กรที่ไม่แสวงหาผลกำไรที่มุ่งเน้นการรักษาความยึดหยุ่นในระยะยาว SEEDS ได้สร้าง Model AI ที่คัดกรองข้อมูลจำนวนมากเพื่อค้นหาปัจจัยเสี่ยงในท้องถิ่น ความพยายามร่วมกันนี้ช่วยพัฒนากลยุทธ์การจัดการภัยพิบัติ ลดภาระของผู้ที่มีความเสี่ยงมากที่สุด

  • Copilot เพิ่มศักยภาพให้กับแต่ละคน รวมถึงคนพิการในการใช้เวลามากขึ้นกับการพัฒนา Passion และสิ่งที่ตนเองสนใจ ตัวอย่างเช่น: การลดอุปสรรค การช่วยเขียน และการนำทาง Web เพื่อสรุปข้อมูลได้อย่างรวดเร็ว

  • การวิเคราะห์เชิงสนทนา (Conversational Analytics) คือการดึงข้อมูลเชิงลึก (Insights) จากความคิดเห็นของลูกค้าที่มาจากหลายช่องทาง เช่น ดึงข้อมูลจาก Chatbot, Social Media, Call Center Transcript, Survey แล้วมาวิเคราะห์ว่า ลูกค้ารู้สึกยังไง, มีปัญหาซ้ำ ๆ เรื่องอะไร, หรือมีคำถามอะไรบ่อย ๆ → เพื่อใช้ปรับปรุงบริการ/สินค้าได้ดียิ่งขึ้น

  • การประเมินความพร้อมของข้อมูล (Data Readiness Evaluation) เป็นก้าวแรกที่สำคัญในขั้นตอน Exploring Phase เพราะช่วยสร้างพื้นฐานที่มั่นคง การทำงานมีประสิทธิภาพและแม่นยำ สำหรับก่อนการนำ Generative AI มาใช้งานให้ประสบความสำเร็จ

  • Amazon Q Business สามารถตั้งค่าให้เข้าถึงระบบบันทึกเวชระเบียนของบริษัท ข้อมูลคนไข้ เข้าใจคำศัพท์และบริบททางการแพทย์ และให้ข้อมูลสรุปที่รวดเร็วและแม่นยำแก่แพทย์ได้ พร้อมทั้งทำให้มั่นใจว่าการเข้าถึงข้อมูลทั้งหมดอยู่ภายในขอบเขตการรักษาความปลอดภัยขององค์กร

  • Amazon Bedrock ให้ลูกค้าเข้าถึง Model พื้นฐาน (Foundation Model) หลายแบบ และสามารถปรับแต่ง (Customize) หรือ Fine-tune ให้เหมาะกับธุรกิจ โดยใช้ข้อมูลเฉพาะของบริษัทเอง เช่น Catalog สินค้า และข้อมูลการให้บริการลูกค้า ทำให้ Model ตอบโจทย์งานได้แม่นยำขึ้น

  • AWS Inferentia ถูกออกแบบมาโดยเฉพาะเพื่อให้การ Run Model Machine Learning (Inference) มีประสิทธิภาพสูง ประมวลผลผลลัพธ์จาก Model ML ได้ไว และคุ้มค่าต้นทุนกว่าการใช้ CPU/GPU ทั่วไป
:cool:
 
Last edited:

PlAwAnSaI

Administrator
  • AWS Generative AI Security Scoping Matrix เป็นตารางที่ใช้แบ่งประเภทการใช้งานของลูกค้าออกเป็น 5 ระดับ เพื่อช่วยให้เลือกมาตรการรักษาความปลอดภัยที่เหมาะสมตามระดับการปรับแต่งและการเป็นเจ้าของข้อมูล
    .
    • Scope 1 ต้องการมาตรการด้านความปลอดภัยน้อย และสามารถติดตั้งใช้งานได้อย่างรวดเร็ว = ลูกค้าใช้ App สาธารณะ (ลูกค้าดูแลน้อยสุด) เหมาะกับความต้องการของ Team ที่อยากทดลองอย่างรวดเร็ว และสร้างเนื้อหาที่ไม่อ่อนไหว

    • Scope 2 มี Feature ด้านความปลอดภัยระดับองค์กร พร้อมใช้งานกับ Workflow ที่มีอยู่แล้ว วิธีนี้ช่วยสร้างสมดุลระหว่างความต้องการด้านความปลอดภัยและการผสานรวมที่ราบรื่น เช่น การใช้ความสามารถด้าน AI ที่มีอยู่แล้วภายในระบบ CRM ของลูกค้า

    • Scope 3 ให้สมดุลระหว่างการปรับแต่ง (Customization) และการรักษาความปลอดภัยแบบ Managed Security วิธีนี้เหมาะสำหรับ Team ที่ไม่มีความเชี่ยวชาญด้าน AI เช่น ใช้ Model ที่ Train มาแล้วผ่าน Amazon Bedrock

    • Scope 4 ให้ความยืดหยุ่นสูง และความเป็นเจ้าของข้อมูล มากกว่า Scope 1–3 แต่ยังไม่ต้องสร้าง Model ใหม่จากศูนย์
      Fine-tuning Existing Model = เอา Model ที่ pre-trained มาแล้ว → Train ต่อด้วย ข้อมูลเฉพาะของบริษัท (เช่น Legal Data) เหมาะกับกรณีที่ข้อมูลเป็น Sensitive / Confidential และต้องควบคุมความปลอดภัย > Model จะตอบได้แม่นยำในบริบทของกฎหมายและบริษัท ลดความเสี่ยงการรั่วไหลของข้อมูล เพราะกระบวนการ Fine-tuning อยู่ใน Environment ที่ควบคุมได้ > SageMaker

    • Scope 5 ให้การควบคุมเต็มรูปแบบทั้งการพัฒนาและความปลอดภัย เหมาะสำหรับองค์กรที่ต้องการความได้เปรียบเชิงแข่งขันจากทรัพย์สินทางปัญญาเฉพาะตัว = ลูกค้าออกแบบและฝึกสอน Model เฉพาะ (Custom) เอง ตั้งแต่ต้นจนจบ (ลูกค้าดูแลมากสุด)
      .
  • เมื่อเริ่มจากการจัดประชุมค้นหาความต้องการอย่างละเอียด และการประเมินความพร้อมของข้อมูล จะช่วยให้เข้าใจเชิงลึกถึงความต้องการของลูกค้า ซึ่งนำไปสู่การตัดสินใจที่ดีกว่าเกี่ยวกับ Solution AI และกลยุทธ์การนำไปใช้งาน

  • การทำ Proof of Concept (POC) ที่มีขอบเขตชัดเจน โดยใช้ Model ที่คุ้มค่า ช่วยควบคุมงบประมาณ และสอดคล้องกับวัตถุประสงค์ทางธุรกิจ พร้อมทั้งพิสูจน์คุณค่าที่แท้จริง และทำความเข้าใจว่า Model เหมาะสมกับงานหรือไม่ จะเป็นหลักฐานที่ใช้สนับสนุนการตัดสินใจลงทุนในอนาคต

  • ติดตั้งมาตรการป้องกัน (Guardrails) เช่น การตั้งสิทธิ์ IAM, การกรองเนื้อหาที่ไม่เหมาะสม, การบันทึก Log และตรวจสอบความปลอดภัยก่อนทำการติดตั้งใช้งานภายในแบบควบคุม เป็นแนวทางแบบสมดุลที่ช่วยปกป้องทรัพย์สินขององค์กร ขณะเดียวกันก็ยังคงความต่อเนื่องของการติดตั้งใช้งาน (Deployment) ได้อย่างราบรื่น

  • การเลือก Model อย่างต่อเนื่องและการปรับแต่งการทำงานของ AI Inference ใน SageMaker ช่วยสร้างสมดุลระหว่างต้นทุนและประสิทธิภาพ ทำให้การดำเนินงานยั่งยืนในระยะยาว และยังคงรักษาระดับคุณภาพการให้บริการได้

  • การจัดการ Lifecycle ของ Model อย่างเป็นระบบ และการ Update อย่างสม่ำเสมอ ช่วยให้ประสิทธิภาพของ Model คงที่ตลอดเวลา กลยุทธ์นี้ช่วยรับประกันว่าคุณภาพการให้บริการจะสม่ำเสมอ และการใช้ทรัพยากรมีประสิทธิภาพ

  • Amazon Q เป็น:
    • บริการที่ช่วยให้พนักงานของลูกค้าสามารถวิเคราะห์ข้อมูลภายในได้เร็วขึ้น โดยไม่ต้องเสียเวลาไปกับการสร้าง/ดูแล Solution เอง เพราะมันสามารถเชื่อมต่อหลายแหล่งข้อมูล (เช่น เอกสารภายใน, ฐานข้อมูล, Wiki) และให้คำตอบแบบสรุปได้
    • เครื่องมือ Generative AI บน AWS ที่ช่วยให้ผู้ใช้วิเคราะห์ปัญหาและหา Solution แบบอัตโนมัติ ลดเวลาที่ต้องค้นหาเอกสารหรือ Troubleshooting ด้วยตนเอง
      Use case ตัวอย่าง:
      • EC2 Permission Error: เช่น ผู้ใช้สร้าง Instance แต่สิทธิ์ IAM ไม่เพียงพอ → ช่วยวิเคราะห์และแนะนำแก้ไข
      • S3 Configuration Error: เช่น Bucket ไม่สามารถเข้าถึงได้เพราะ Policy ผิด → สามารถชี้ปัญหาและแนะนำการแก้ไข

        ประโยชน์:
      • ลดเวลา Debugging
      • ลด Dependency กับ Support Engineer
      • เพิ่ม Productivity ของ Team AWS User
        .
  • Model Machine Learning แบบดั้งเดิม (Traditional) ต้องมีการรวบรวมข้อมูลที่ติดป้ายกำกับ (Labeled Data) ก่อน แล้วจึงฝึก (Train) และนำ Model ไปใช้งาน (Deploy) สำหรับแต่ละงาน (Task)

  • Model Generative AI ถูกฝึกล่วงหน้า (Pretrained) ด้วย Model ML ขนาดใหญ่ (FM) บนข้อมูลขนาดมหาศาลทั้งที่มีป้ายกำกับ (Labeled) หรือ ไม่ได้ติดป้ายกำกับ (Unlabeled Data) และสามารถนำไปใช้ทำงานได้หลายประเภท (Multiple Task) ไม่ใช่แค่เข้าใจหรือวิเคราะห์ข้อมูล
    • สามารถสร้างเนื้อหา และ Idea ใหม่ ๆ ได้ ข้อความ/บทความ – Blog, ข่าว, บทความวิชาการ
    • รวมถึงการสร้างเรื่องเล่า/บทสนทนา – นิทาน, โต้ตอบแบบ Chatbot
    • สร้างรูปภาพจากข้อความ (Text-to-image)
    • สร้างหรือปรับแต่ง Video
    • และสร้างเพลงหรือเสียงดนตรีประกอบ

      ช่วย:
    • ยกระดับประสบการณ์ของลูกค้า
    • ปรับปรุงการดำเนินงานของธุรกิจ
    • เพิ่มประสิทธิภาพการทำงานของพนักงาน

      Use case ที่นิยม:
    • Chatbot: ให้บริการลูกค้าอัตโนมัติ, ตอบคำถาม, ให้คำแนะนำส่วนบุคคล
    • Content Creation: ช่วย Team การตลาดสร้างเนื้อหาใหม่เร็วขึ้น
    • Creative Production: ใช้ใน Media, Entertainment, หรือ E-learning
      .
  • ลูกค้าสร้าง Model Generative AI เองตั้งแต่ต้น (From Scratch) สนใจเรื่อง การ Deploy และ Inference ที่มีต้นทุนต่ำ ควรใช้
    • AWS Inferentia ถูกออกแบบมาให้ Inference ML Model ได้เร็วและราคาประหยัด
    • AWS Trainium เหมาะสำหรับการ Train Model ที่ต้องการประสิทธิภาพสูงและต้นทุนต่ำ
      อื่น ๆ:
    • Amazon Q Developer → เน้นช่วยนักพัฒนาทำงานเร็วขึ้น (AI Assistant) ไม่ได้ใช้ Deploy Model
    • Amazon Bedrock → ใช้สำหรับเข้าถึงและปรับแต่ง Foundation Model (FM) ที่มีอยู่แล้ว (ไม่เหมาะกับ Model ที่ลูกค้าสร้างเอง) ไม่ต้องใช้ข้อมูลลูกค้าเพื่อ Train Model ใหม่
      AWS รับประกันว่าข้อมูลของลูกค้าจะไม่ถูกใช้เพื่อ Train หรือ Fine-tune Foundation Model ที่ให้บริการแบบสาธารณะ ทำให้ข้อมูลลูกค้า ปลอดภัยและเป็นส่วนตัว 100%
    • Amazon SageMaker → เหมาะสำหรับ Train, Tune, Deploy Model แบบ Fully Managed แต่จะมีค่าใช้จ่ายสูงกว่าเมื่อเทียบกับใช้ Inferentia/Trainium เอง
      .
  • Text-to-embeddings คือการแปลงข้อความเป็น Vector ตัวเลข เพื่อให้ Computer เข้าใจความหมายเชิงบริบทของข้อความ งานที่เหมาะสมคือ งานที่ต้องการเปรียบเทียบความหมายของข้อความกับข้อมูลอื่น ๆ เช่น การค้นหาเอกสาร, การจับคู่คำถามกับคำตอบ, การเปรียบเทียบคำขอของผู้ใช้กับ Catalog สินค้า

  • การใช้ Generative AI ช่วยเพิ่มประสิทธิภาพการทำงานของพนักงาน เช่น เปลี่ยนการดึงข้อมูลด้วยมือจากเอกสาร เป็นแบบอัตโนมัติ ลูกค้าสามารถให้พนักงานไป Focus กับงานที่มีผลกระทบสูง

  • ใน Generative AI Stack ชั้นบนสุด (Top Layer) คือ Applications / End-User Layer ซึ่งเป็น App ที่ผู้ใช้ทั่วไปสามารถใช้งาน Generative AI ได้ทันที โดยไม่ต้องมีความรู้เฉพาะทางหรือเขียน Code ตัวอย่างเช่น ChatGPT, Canva AI, Jasper AI

  • Generative AI สามารถช่วยแก้ไขปัญหาทางธุรกิจทั่วไปกับลูกค้าในสาย Media & Entertainment เช่น
    • เพิ่มประสิทธิภาพ Video Editing และ Post-production Workflow ด้วย Effect หรือ Transition ที่สร้างด้วย AI
    • สร้าง Content Recommendation, Synopsis (สรุปย่อ), หรือ Trailer แบบเฉพาะบุคคล
    • การสร้าง Script, Dialogue หรือ Subtitle สำหรับ Video และเสียงอัตโนมัติ
      .
  • AWS นอกจากช่วยลด Carbon Footprint แล้ว ยังมี Use Case เพิ่ม Productivity ของนักพัฒนาโดยช่วย สร้างหรือแนะนำ Code อัตโนมัติด้วย
    • Amazon Q Developer: ช่วยนักพัฒนาได้ทันที
    • Amazon Bedrock: ใช้ Foundation Model ของ Generative AI เพื่อสร้างคำแนะนำหรือช่วย Coding
      ประโยชน์:
    • ลดเวลาเขียน Code
    • ลดความผิดพลาดในการพัฒนา
    • ให้ Team Focus งานที่สร้างมูลค่าสูงกว่า
      .
  • ประเภทของ FM ที่มีอยู่ในตลาดตอนนี้ ได้แก่
    • Text-to-Text – แปลงข้อความเป็นข้อความ เช่น การตอบคำถาม, สรุปเนื้อหา, แปลภาษา, เติมคำหรือประโยคให้สมบูรณ์โดยอัตโนมัติ
    • Text-to-Embeddings – แปลงข้อความเป็น Vector ตัวเลข เพื่อใช้เปรียบเทียบความหมาย, ค้นหาเอกสาร, หรือสร้าง Recommendation
    • Multimodal Models – Model ที่รองรับ หลายรูปแบบข้อมูล เช่น ข้อความ + ภาพ, ข้อความ + เสียง, การสร้างภาพจากข้อความของผู้ใช้
      ลูกค้าสามารถเลือกใช้ Model ที่เหมาะกับงาน, ปรับแต่ง Model ให้เข้ากับข้อมูลหรือธุรกิจเฉพาะของลูกค้า, ปรับ Model เพิ่มเติมเพื่อให้ผลลัพธ์แม่นยำขึ้นหรือเหมาะกับ Use Case, และ AWS มีตัวเลือกที่ช่วยให้ลูกค้า ได้ประสิทธิภาพสูงสุดในราคาที่เหมาะสม
      .
  • ลูกค้าสามารถใช้ ข้อมูลขององค์กรเอง เพื่อปรับแต่ง Model หรือ App ให้เหมาะกับธุรกิจเฉพาะของพวกเขา
    ตัวอย่าง: ปรับ Model Generative AI ให้เข้าใจคำถามเฉพาะทางธุรกิจ หรือสร้าง Recommendation System สำหรับลูกค้า
    AWS ให้ความมั่นใจเรื่อง Security & Privacy ของข้อมูล ข้อมูลไม่ถูก Share กับผู้อื่นและสามารถควบคุมการเข้าถึงได้อย่างเข้มงวด
    ประโยชน์ > ปรับแต่ง App ให้ตอบโจทย์ธุรกิจได้จริง, ลดความเสี่ยงด้านข้อมูล, และทำให้ลูกค้าใช้ Generative AI ได้อย่างมั่นใจ
:cool:
 
Last edited:

PlAwAnSaI

Administrator
Code:
https://aws.amazon.com/blogs/training-and-certification/aws-educate-learning-pathway-to-aws-certified-ai-practitioner
  • Computer Vision ช่วยให้เครื่องจักรสามารถ ระบุบุคคล สถานที่ และสิ่งของในภาพ ได้ด้วยความแม่นยำเท่ากับหรือมากกว่ามนุษย์ และทำงานได้รวดเร็วและมีประสิทธิภาพมากกว่า

  • Model Machine Learning แบบ Binary เป็น Model ที่ทำนายค่าซึ่งมีได้เพียง สองสถานะ เช่น True/False

  • Algorithm ML มีสามหมวดหมู่หลัก:
    • Supervised Learning: มีคำตอบให้ → เรียนรู้จากตัวอย่าง
    • Unsupervised: ไม่มีคำตอบ → ค้นหารูปแบบด้วยตัวเอง
    • Reinforcement: เรียนรู้จากการกระทำ → รับรางวัลหรือบทลงโทษ
      .
  • Multiclass Classification = มี 3 ตัวเลือกขึ้นไป (เช่น ส่งสายลูกค้าไปยังเจ้าหน้าที่ที่ถูกต้อง Team A/B/C หรือ D)

  • การ Feature Extraction เป็นส่วนหนึ่งของขั้นตอน Data Preprocessing
    Data Scientist จะใช้เพื่อแปลงข้อมูลให้อยู่ในรูปแบบที่ Model สามารถนำไปใช้บรรลุเป้าหมายทางธุรกิจได้ > เตรียมและแปลงข้อมูลให้สะอาด + เป็นตัวเลข เพื่อให้ Model ML ใช้งานได้ดีที่สุด

  • การทำให้ String (ข้อความ) ทั้งหมดมีรูปแบบที่สอดคล้องกัน (Consistent) เป็นตัวอย่างหนึ่งของขั้นตอน การทำความสะอาดข้อมูล (Data Cleaning)

  • ส่วนสำคัญของการเตรียมข้อมูลสำหรับการฝึก Model (Training Process) คือ การแบ่งข้อมูล (Split Data) เพื่อให้มีเส้นแบ่งที่เหมาะสมระหว่างการฝึก (Training) กับการทดสอบความสามารถของ Model ในการ Generalize (ทำนายข้อมูลใหม่ที่ไม่เคยเห็น)

  • Overfitting > Model จำข้อมูล Training มากเกินไป แทนที่จะเรียนรู้ความสัมพันธ์ระหว่าง Feature (ตัวแปร Input) และ Label (ค่าที่ต้องการทำนาย) > ดีบน Training แต่แย่บน Test → เหมือนจำข้อสอบเก่า แต่ทำข้อสอบใหม่ไม่ผ่าน
    Underfitting > เรียนรู้ไม่เพียงพอ > แย่ทั้ง Training และ Test → เหมือนอ่านหนังสือไม่พอ ข้อสอบเก่าก็ตอบไม่ได้ > ใช้ Model ที่ซับซ้อนขึ้น, เพิ่ม Feature, Train นานขึ้น

  • Evaluating & Tuning (การประเมินและการปรับ Tune Model) คือขั้นตอนที่เราตรวจสอบว่า Model สามารถ ทำนายค่าเป้าหมาย (Target) ได้ดีแค่ไหนกับ ข้อมูลใหม่หรือข้อมูลในอนาคต

  • Jupyter Notebook เป็น Web App แบบ Open Source ที่ช่วยให้สามารถสร้างและ Share เอกสาร เป็นเครื่องมือยอดนิยมสำหรับ Data Science และ Machine Learning ใช้ได้ทั้งเขียน Code, แสดงผลลัพธ์ และอธิบายขั้นตอนในที่เดียว

  • Amazon EC2 P-series Instance เป็นประเภท Instance ที่ออกแบบมาสำหรับ Machine Learning Training โดยเฉพาะ เพราะใช้ GPU ที่มีประสิทธิภาพสูง (NVIDIA) ทำให้ฝึก Model ได้เร็วมากเมื่อเทียบกับ CPU ทั่วไป
    ถ้า ฝึก Model เล็ก-กลาง / ทำ POC / มีงบจำกัด → P3 ยังเป็นตัวเลือกที่ดี
    LLMs, Generative AI, Distributed Training หลาย GPU → ควรไป P4 หรือ P5 จะคุ้มกว่า
    สำหรับคนที่ต้องการ “สุดจริง” เช่น Training Model ระดับ OpenAI, Anthropic, Meta (Model หลายร้อยพันล้าน - ล้านล้าน Parameter) → P6

  • Training Algorithm คือส่วนที่รับข้อมูล → เรียนรู้ → หารูปแบบ (Pattern) โดยที่เราไม่ต้องตั้งกฎเอง มันคือ “สมอง” ที่ใช้สอน Model ให้เข้าใจความสัมพันธ์ระหว่าง Feature กับ Label หลังจาก Algorithm ทำงาน → เราจะได้ “Model” ที่สามารถนำไปใช้ทำนายผลได้

  • Classical Programming (การเขียน Program แบบปกติ) เหมาะในกรณีที่เราสามารถระบุ กฎ (Rule) ได้ชัดเจน เช่น “ถ้า A → ทำ B” ไม่ต้องใช้ ML ให้เสียเวลา

  • Regression ใช้สำหรับการทำนายค่าตัวเลขต่อเนื่อง (Continuous Numeric Value) เช่น ราคาบ้าน, อุณหภูมิ, รายได้, คะแนน ฯลฯ

  • Model Training คือขั้นตอนที่เราเอาข้อมูล (Training Data) ให้ Model เรียนรู้ Model จะปรับค่า Parameter ภายใน (Weight) เพื่อให้ทำนายผลได้ใกล้เคียงความจริงมากที่สุด นี่คือขั้นตอนที่ “การเรียนรู้” เกิดขึ้นจริงใน ML Pipeline
    เป็นขั้นตอนที่ Model ต้องเรียนรู้จากข้อมูล → ต้องทำการคำนวณซ้ำ ๆ (Iterations / Epoch) ใช้เวลาเยอะมากโดยเฉพาะเมื่อ Dataset ใหญ่ หรือ Model ซับซ้อน (เช่น Deep Learning, LLM) อาจใช้ GPU/TPU หลายตัวเพื่อเร่งความเร็ว

  • Problem Formation (การนิยามปัญหา) คือขั้นตอนแรกสุด ที่เราต้องเข้าใจว่าเรากำลังจะแก้ปัญหาอะไร → เป็นงานที่ต้องใช้ความเข้าใจธุรกิจ/Domain ไม่สามารถทำอัตโนมัติบน SageMaker ได้
    SageMaker ใช้ทำตั้งแต่ Data Preparation → Training → Evaluation → Deployment ได้

  • Amazon Elastic Inference (EI) ช่วยลดต้นทุนการทำ Inference (การใช้ Model ทำนายผล) ทำงานโดยให้เลือก GPU Accelerator ขนาดเล็กพอเหมาะมาต่อพ่วงกับ EC2 Instance หรือ SageMaker Instance ลดการ “Over-provision” GPU → ประหยัดต้นทุนได้สูงสุด 75%

  • Amazon SageMaker Studio เป็น IDE สำหรับ ML บน Cloud → ผู้ใช้สามารถสร้าง แก้ไข และ Share Notebook กับเพื่อนร่วม Team ได้ง่าย ทำงานร่วมกันได้แบบ Collaborative เหมือน Jupyter Notebook บน Cloud

  • ตัวอย่างบริการที่เป็น AI Services ของ AWS ที่ ไม่ต้องมีประสบการณ์ ML ก็ใช้ได้ทันที (Pre-trained models):
    Amazon Translate - แปลภาษา (Text-to-Text Translation)
    Amazon Polly - แปลงข้อความเป็นเสียงพูด (Text-to-Speech)
    Amazon Lex - สร้าง Chatbot ด้วยเสียง/ข้อความ

  • ตัวอย่างชัด ๆ ของ Generative AI ที่ AWS มักยกมาใช้ประกอบว่า = เครื่องมือช่วย Boost Employee Productivity
    Conversational search → ใช้ LLM มาตอบคำถาม หาข้อมูลได้เร็วขึ้น กว่าการค้นแบบ Keyword
    Code generation → ใช้ AI ช่วยเขียน Code ลดเวลาที่ Dev ต้องพิมพ์เอง → Productivity พุ่ง

  • Amazon SageMaker JumpStart คือ Feature ที่ช่วยให้เริ่มทำ Machine Learning ได้ง่ายและเร็วขึ้น โดยไม่ต้องเริ่มจากศูนย์

  • 📌 Amazon Q Developer
    ✅ มี Built-in Security Scan → ตรวจ Code หา Vulnerability
    ✅ มี Reference Tracker → ดึงข้อมูล License ของ Dependency ได้
    ✅ Optimized for AWS Services → ใช้ง่ายกับ Ecosystem ของ AWS

  • Amazon Q Developer ช่วยนักพัฒนาในหลาย ๆ ด้าน เช่น:
    ⚡ ลดเวลาที่เสียไปกับงาน Routine เช่น Debugging, Documentation, Code Scanning
    🚀 แนะนำวิธีใช้ Tech Stack ใหม่ ๆ หรือ Pattern การพัฒนา
    🔗 มี Integration ลึกกับ AWS (เช่น IAM, Lambda, S3, SageMaker ฯลฯ) ทำให้ใช้งาน AWS อย่างมั่นใจและปลอดภัยมากขึ้น

  • Amazon Q Business / Pro Tier ใช้ Pricing Model แบบรายผู้ใช้ รายเดือน (Per User, Per Month)
    💳 ถ้าองค์กรมี User 1 คน ที่ถูก Assign License → AWS จะคิด เต็มราคาแบบรายเดือน สำหรับ User คนนั้นทันที
    ⏳ ไม่ว่าจะใช้งาน 5 นาที หรือ 50 ชั่วโมงต่อเดือน ก็คิดราคาเท่ากัน
    🏢 ดังนั้น Billing จะขึ้นอยู่กับ จำนวนผู้ใช้ที่ถูก Provision / Assigned License ไม่ใช่เวลาที่ใช้งานจริง

  • Amazon Q Developer – Reference Tracker มีหน้าที่หลักคือช่วยนักพัฒนาตรวจสอบว่า Code ที่ AI แนะนำมา มีความคล้ายหรือดึงมาจาก Open-source Training Data หรือไม่ โดยมันจะ:
    🔍 ตรวจจับและ Flag Code ที่น่าสงสัยว่าอาจคล้ายกับ Open Source
    📌 แสดงข้อมูลอ้างอิง เช่น Repository URL (Link ไปยังที่เก็บต้นฉบับ), File Reference (File ที่เกี่ยวข้อง), License Information (เงื่อนไขการใช้งานของ Code นั้น เช่น MIT, Apache 2.0, GPL ฯลฯ)
    ✅ เพื่อให้นักพัฒนาตัดสินใจได้ว่าจะ นำ Code มาใช้ ปรับแก้ หรือหลีกเลี่ยง

  • การทำ Security Scan ใน Amazon Q Developer แบบ Step-by-step:
    🔧 เปิด IDE Editor ที่ทำงานอยู่
    ▶️ ไปที่ Amazon Q Status Bar > Run Project Scan
    🔍 Amazon Q จะ Scan File ที่เปิดอยู่ + Dependent File ที่เกี่ยวข้องใน Project
    📊 หลังจาก Scan เสร็จ ผลลัพธ์จะแสดงใน Problems Panel โดยจะบอกว่าเจอ Security Issue อะไรบ้าง เช่น Hardcoded Secrets, Misconfigurations (เช่น S3 Public Access), Deprecated Library, Permission Error
    👉 ทำให้นักพัฒนาสามารถแก้ Security Issue ได้ตั้งแต่ขั้นตอน Coding เลย ไม่ต้องรอไปเจอใน Production 🎯

  • Amazon Q Developer รองรับ Infrastructure as Code (IaC) หลัก ๆ คือ:
    • YAML (เช่น AWS CloudFormation Template, Kubernetes Manifest)
    • JSON (CloudFormation Template, IaC Config อื่น ๆ)
    • AWS CDK (Cloud Development Kit, ใช้ภาษา Program เช่น Python, TypeScript, Java)
    • HCL (HashiCorp Configuration Language, ใช้กับ Terraform)
      .
  • IDE (Integrated Development Environment) คือ Software ที่รวมเครื่องมือสำคัญ ๆ สำหรับนักพัฒนาไว้ในที่เดียว เช่น:
    • Code Editor → ใช้แก้ไข / เขียน Code พร้อม Syntax Highlighting, Auto Complete
    • Build Tool → Compile/แปลง Code เป็น Program ที่ Run ได้
    • Debugger → ใช้ตรวจสอบหาข้อผิดพลาด (Bug)
    • Testing Tool → เขียนและ Run Unit Test/Integration Test ได้ใน IDE เลย
    • Version Control Integration → ทำงานกับ Git ได้สะดวก
    • Packaging/Deployment → บาง IDE มีเครื่องมือช่วย Pack และ Deploy
      📌 ตัวอย่าง IDE ที่นิยม: Visual Studio Code (VS Code), PyCharm, IntelliJ IDEA, Eclipse, AWS Cloud9 (IDE บน Cloud ของ AWS)
:cool:
 
Last edited:

PlAwAnSaI

Administrator
  • Amazon Q Developer:
    📚 ถูก Train มาจาก Code จำนวนมหาศาล (Billions Line)
    ⚡ สร้างคำแนะนำ Code ได้ตั้งแต่ Snippet เล็ก ๆ ไปจนถึง Function เต็ม ๆ
    📝 ใช้ Comment และ Code ที่เขียนอยู่แล้ว เพื่อสร้าง Code ต่อเนื่องแบบ Real-time
    🚀 ลดงาน Coding ที่ซ้ำซ้อน, ทำให้เขียนกับ API ที่ไม่คุ้นเคย ได้เร็วขึ้น

  • Amazon Q Developer มี Feature Security Scan ที่ช่วยนักพัฒนาในการตรวจ Code เพื่อหา ช่องโหว่ (Vulnerabilities) ที่ยากจะตรวจเจอเอง โดยเฉพาะ:
    🔐 OWASP Top 10 Risks → เช่น SQL Injection, Cross-Site Scripting (XSS), Broken Authentication
    🔑 Cryptographic Best Practices → ตรวจว่าใช้ Crypto Library ถูกต้อง ปลอดภัย ไม่ใช้ Algorithm ที่ไม่แนะนำแล้ว
    🛡️ AWS Internal Security Best Practices → ช่วยให้ Code ที่ทำงานกับ AWS services เช่น S3, EC2, IAM ปลอดภัยตามมาตรฐาน AWS
    📌 ทำหน้าที่คล้าย ๆ Automated Security Reviewer ที่คอย Scan Code ก่อน Deploy เพื่อลดความเสี่ยงด้านความปลอดภัยตั้งแต่ต้นทาง

  • วิธีเรียก Amazon Q Developer Code Suggestion แบบ Manual ใน Visual Studio Code (VS Code) เมื่อมีการติดตั้ง Amazon Q Developer Extension แล้ว:
    💻 Windows: กด Alt + C เพื่อเรียก Code Suggestion
    🍎 macOS: กด Option + C
    👉 ถ้าไม่ได้กดเรียกเอง Amazon Q Developer ก็ยังสามารถ “แนะนำอัตโนมัติ” ตาม Context ของ Code และ Comment ได้เหมือนกัน
  1. Chain-of-thought Prompting (CoT) เป็น Technique การเขียน Prompt ที่ช่วยให้ Model “คิดเป็นขั้นตอน” โดยกระตุ้นให้มันแสดง ลำดับการให้เหตุผล (Reasoning Process) ก่อนจะสรุปคำตอบสุดท้าย
    🔹 เหมาะมากกับงานที่ต้องใช้เหตุผล เช่น การคำนวณ, การวิเคราะห์เชิงตรรกะ, การอธิบายเชิงลึก
    🔹 ตัวอย่างเช่น: “Let’s reason step by step before answering.”
    🔍เปรียบเทียบกับ Technique อื่น:
    • Zero-shot Prompting > ให้ Prompt เดียวโดยไม่มีตัวอย่าง > งานทั่วไป ไม่ซับซ้อน
    • Few-shot Prompting > ให้ตัวอย่าง 2–3 ตัวเพื่อให้ Model เข้าใจบริบท > งานที่ต้องการ Pattern แต่ไม่จำเป็นต้องอธิบายเหตุผล
    • Chain-of-thought Prompting > กระตุ้นให้ Model แสดงเหตุผลแบบ Step-by-step > งานซับซ้อนที่ต้องใช้ตรรกะและคำอธิบายละเอียด
      .
  2. Object Detection เป็น Technique ในสาขา Computer Vision ที่ใช้ในการ:
    🔍 ตรวจจับ (Detect) ว่ามีวัตถุอะไรอยู่ในภาพ
    📦 ระบุตำแหน่ง (Locate) ของวัตถุนั้น (เช่น ขอบกล่อง Bounding Box)
    🏷️ จัดประเภท (Classify) ของวัตถุว่าเป็นอะไร เช่น แมว, หมา, ช้าง
    ตัวอย่าง: ระบบจะตรวจจับว่าในภาพมีสุนัข 2 ตัว แมว 1 ตัว พร้อมใส่ Label และ Bounding Box ให้โดยอัตโนมัติ
    • Anomaly Detection > ใช้ตรวจจับสิ่งที่ “ผิดปกติ” หรือ “นอก Pattern” เช่น การตรวจหาการฉ้อโกง หรือ Sensor ผิดพลาด
    • Named Entity Recognition (NER) > ใช้ใน NLP (Natural Language Processing) เพื่อหาชื่อบุคคล, องค์กร, สถานที่ใน “ข้อความ”
    • Inpainting > ใช้ “เติมส่วนที่ขาดหายไปในภาพ” (เช่น ลบสิว เติมฉากหลัง)

    • AWS มีบริการที่ทำ Object Detection ได้โดยไม่ต้องเขียน Model เอง เช่น
      • Amazon Rekognition 🦾 → ตรวจจับใบหน้า, สัตว์, วัตถุ, และฉากในภาพ/Video
      • Amazon SageMaker → ฝึก Model Object Detection เองได้ ถ้าอยาก Customize เพิ่มเติม
        .
  3. เมื่อเปลี่ยนจาก LLM ตัวหนึ่งไปใช้อีกตัว (ที่เป็น Pre-trained Foundation Model บน Amazon Bedrock) — ตัว Model ใหม่อาจจะ
    • ใช้รูปแบบ Prompt ไม่เหมือนกัน,
    • มีวิธีการ Tokenize หรือเข้าใจคำสั่งแตกต่างกันเล็กน้อย,
    • และตอบกลับใน Format ที่ไม่เหมือนกัน
      ดังนั้นสิ่งสำคัญคือการ “ปรับ Prompt Template” ให้เหมาะกับ Model ใหม่ เพื่อให้เข้าใจบริบทและให้ผลลัพธ์ที่แม่นยำต่อ Use Case เดิม (เช่น Document Extraction)
      .
  4. Fairness คือการทำให้ Model AI ไม่มีอคติ (Bias) ต่อกลุ่มใดกลุ่มหนึ่ง หากใช้ Dataset ที่ไม่ครอบคลุมทุกกลุ่มประชากร (Non-representative of all Demographic) → ทำให้ Model อาจให้ผลลัพธ์ที่ ไม่ยุติธรรมต่อบางกลุ่ม เช่น เพศ เชื้อชาติ หรืออายุ เช่น ระบบคัดกรอง Resume
    • Explainability → เกี่ยวกับการเข้าใจว่า Model ตัดสินใจอย่างไร
    • Privacy → เกี่ยวกับการปกป้องข้อมูลส่วนบุคคล → Data Leak
    • Transparency → เกี่ยวกับการเปิดเผยวิธีที่ Model ถูกพัฒนาและใช้ → Opaque model
      .
  5. เมื่อใช้ Amazon Bedrock — ระบบจะอยู่ภายใต้ Shared Responsibility Model (Model ความรับผิดชอบร่วมกัน)
    AWS มีหน้าที่ดูแลเรื่อง ความปลอดภัยของโครงสร้างพื้นฐาน (Infrastructure) และ การ Update Patch ของ Platform (เช่น Server, ระบบปฏิบัติการ และบริการพื้นฐาน)
    ส่วน ลูกค้า มีหน้าที่ดูแลเรื่อง ความปลอดภัยของข้อมูลของตัวเอง เช่น
    • เข้ารหัสข้อมูล (Encryption)
    • ตั้งค่า IAM (Identity and Access Management)
    • กำหนด นโยบายสิทธิ์ (Policy)
      ทั้งในช่วงที่ข้อมูล ถูกส่งผ่านระบบ (In Transit) และ เก็บอยู่ในระบบ (At Rest)
      .
  6. Amazon SageMaker Endpoint คือบริการแบบ Fully Managed (ดูแลโดย AWS ทั้งหมด) และ Serverless
    ที่ใช้สำหรับ Deploy Model Machine Learning เพื่อทำ การพยากรณ์ (Inference)
    ได้ทั้งแบบ Real-time และ Batch — โดย ไม่ต้องจัดการ Server หรือโครงสร้างพื้นฐานเอง

  7. 🔹 Overfitting: เก่งกับข้อมูลที่เคยเห็น (Training) แต่พังกับข้อมูลใหม่ (Testing) > จำข้อมูลมากเกินไป ไม่เข้าใจจริง
    🔹 Underfitting: แย่ทั้งข้อมูลเก่าและใหม่

  8. Prompt Template คือโครงสร้างและแนวทางที่ใช้ในการ “ชี้นำ” Model เช่น System Prompt, บทบาท (Role), หรือ Guardrails ที่กำหนดขอบเขตคำตอบ
    หากมีผู้ไม่หวังดีพยายาม เปิดเผยหรือดึงข้อมูลภายในของ Prompt Template ออกมาได้ → การโจมตีแบบนี้เรียกว่า Prompt Extraction Attack
    ส่วน Technique อื่น ๆ เช่น
    • Persona Switching (เปลี่ยนบทบาท Model)
    • Exploiting Friendliness (หลอกด้วยความเป็นมิตร)
    • Ignoring Prompt (สั่งให้ Model เมินคำสั่งเดิม)
      เป็นการโจมตีแบบ “หลอกให้ Model ทำผิด”
      แต่ ไม่ได้ดึงข้อมูลภายในหรือโครงสร้างจริงของระบบออกมา
      .
  9. SageMaker Model Card = “แฟ้มประวัติ Model” ที่ช่วยให้รู้ว่า Model นี้คืออะไร ใช้ยังไง และมีข้อจำกัดอะไรบ้าง 🗂️

  10. Amazon Bedrock Studio มีเครื่องมือสำหรับสร้างและจัดการ App AI แบบสร้างเนื้อหา (Generative AI) โดยในระบบของ Bedrock มี Feature ชื่อว่า Guardrails ซึ่งถูกออกแบบมาเพื่อกรองและป้องกันไม่ให้ AI สร้างเนื้อหาที่เป็นอันตราย เช่น
    • คำพูดแสดงความเกลียดชัง (Hate Speech)
    • ความรุนแรง (Violence)
    • ข้อมูลเท็จ (Misinformation)
      .
  11. Vector Embedding คือ การแปลงข้อความ (เช่น คำ, ประโยค, หรือเอกสาร) ให้อยู่ในรูปของตัวเลขใน “พื้นที่หลายมิติ”
    ช่วยให้ Model LLM สามารถ เข้าใจความหมายของข้อความในเชิงความสัมพันธ์ — เช่น ข้อความที่มีความหมายใกล้เคียงกันจะมี Vector ที่อยู่ใกล้กัน
    เนื่องจาก Embedding อยู่ในรูปของตัวเลข จึงสามารถนำมา เปรียบเทียบกันทางคณิตศาสตร์ (Mathematically) ได้ เช่น
    • การคำนวณ Cosine Similarity → เพื่อดูว่าข้อความสองอันมีความหมายใกล้เคียงกันแค่ไหน
    • การคำนวณ ระยะทาง (Distance) → เพื่อดูความแตกต่างระหว่างข้อความ
      .
  12. Retrieval Augmented Generation (RAG) เป็น Technique ที่ผสม “การค้นหา (Retrieval)” เข้ากับ “การสร้างข้อความ (Generation)”
    เวลา Model ตอบ มันจะ “ดึงข้อมูลล่าสุด” จากแหล่งภายนอก เช่น ฐานข้อมูลสินค้า หรือ Knowledge Base แล้วค่อยนำมาสร้างคำตอบ
    ✅ ทำให้คำตอบอิงข้อมูลจริงที่ Update อยู่เสมอ เช่น สินค้าใน Stock, ราคาล่าสุด, รายละเอียด Promotion เป็นต้น

  13. F1 Score คือ Metric ที่ใช้วัดประสิทธิภาพของ Model จำแนกประเภท โดยพิจารณาทั้ง “Precision” และ “Recall”
    • Precision (ความแม่นยำของการทำนายเชิงบวก) คือสัดส่วนของ “ผลลัพธ์ที่ทำนายว่าเป็นบวกและถูกจริง” ต่อ “จำนวนที่ทำนายว่าเป็นบวกทั้งหมด”
    • Recall (ความครอบคลุม) คือสัดส่วนของ “ผลลัพธ์ที่เป็นบวกจริงและถูกทำนายถูกต้อง” ต่อ “จำนวนที่เป็นบวกจริงทั้งหมด”
      จากนั้น F1 Score จะเป็น “ค่าเฉลี่ย Harmonic (Mean)” ระหว่าง Precision และ Recall เพื่อให้ได้ตัวเลขเดียวที่สะท้อนความสมดุลระหว่างสองอย่างนี้
      ⚖️ ทำไมต้องใช้ F1 Score?
      เพราะบางครั้ง Model อาจมี Precision สูง แต่ Recall ต่ำ (หรือกลับกัน)
      เช่น Model ตรวจโรคที่ “แม่นมาก” แต่ “พลาดผู้ป่วยจริงบางราย” จะดูเหมือนดีจาก Precision แต่จริง ๆ ไม่เหมาะในเชิงปฏิบัติ
      ดังนั้น F1 Score จะช่วย “วัดความสมดุล” ได้ดีกว่า
      .
  14. Amazon Transcribe เป็นบริการจาก AWS ที่ทำหน้าที่ “แปลงเสียงพูดให้เป็นข้อความ (Speech-to-Text)” หรือที่เรียกว่า Automatic Speech Recognition (ASR) 🗣️➡️💬
    AWS ออกแบบบริการนี้เพื่อให้นักพัฒนาสามารถ:
    • สร้างคำบรรยาย (Subtitle หรือ Closed Caption) สำหรับ Video
    • สร้าง Transcript อัตโนมัติจาก File เสียงหรือ Video
    • ใช้ข้อความที่แปลงได้ไปต่อยอดใน NLP หรือการวิเคราะห์อื่น ๆ
:cool:
 
Last edited:

PlAwAnSaI

Administrator
14+
  1. Generative AI ที่จะ “มีความรับผิดชอบด้านความปลอดภัยมากที่สุด" เราต้องสร้างและฝึก Model Generative AI ตั้งแต่ศูนย์ โดยใช้ข้อมูลของตัวเอง เพราะว่า:
    • เราเป็นเจ้าของ ข้อมูล (Data), Model และ โครงสร้างพื้นฐาน (Infrastructure) ทั้งหมด
    • ไม่มีบุคคลที่สามเข้ามาเกี่ยวข้องในการจัดการหรือปกป้องข้อมูล
    • ดังนั้นต้องรับผิดชอบเรื่อง Security ทั้งหมดเอง เช่น
      • การเข้ารหัสข้อมูล (Encryption)
      • การจัดการสิทธิ์ (IAM, Access Control)
      • การป้องกันช่องโหว่ของระบบ
      • และการดูแลการ Update Patch
        .
  2. Computer Vision คือ Technology AI ที่ทำให้เครื่องจักร “เข้าใจและตีความข้อมูลภาพหรือ Video ได้” เช่น ใช้ AI เพื่อตรวจสอบสินค้าว่ามีตำหนิหรือความเสียหายหรือไม่ โดยวิเคราะห์จาก “ภาพหรือ Video” ของสินค้า
    NLP (Natural Language Processing) → ใช้เข้าใจ “ข้อความหรือเสียงพูด” ไม่เกี่ยวกับภาพ
    Image Processing (ประมวลผลภาพ) → เป็น Technique พื้นฐาน เช่น ปรับสี ตัดขอบภาพ ไม่ถึงขั้น “เข้าใจเนื้อหาในภาพ” แบบ AI

  3. Fine-tuning คือ การนำ Model ที่ผ่านการ Train มาก่อน (Pre-trained Model) มาฝึกต่อด้วย “ชุดข้อมูลที่มีการติดป้ายกำกับ (Labeled Dataset)” เฉพาะขององค์กรหรืออุตสาหกรรมนั้น ๆ จุดประสงค์คือเพื่อให้ Model “เข้าใจบริบทเฉพาะทาง” และ “ตอบได้แม่นขึ้นใน Domain/ ศัพท์เฉพาะทาง”

  4. Amazon SageMaker Canvas คือเครื่องมือ แบบ No-Code / Visual Interface 👉ผู้ใช้ไม่ต้องรู้เรื่องการเขียน Code หรือ Algorithm ML ก็สามารถ
    • นำเข้าข้อมูล (จาก S3, Redshift ฯลฯ)
    • วิเคราะห์แนวโน้ม
    • สร้าง Model Machine Learning
    • และดูผลคาดการณ์ (Prediction Result) ได้เลย
      เหมาะสำหรับนักวิเคราะห์ธุรกิจ (Business Analyst) 🔧 ตัวอย่างงานที่ใช้ Canvas ได้ดี:
    • ทำนายยอดขายสินค้า
    • วิเคราะห์ความเสี่ยงทางธุรกิจ
    • คาดการณ์จำนวนลูกค้าที่จะยกเลิกบริการ (Churn Prediction)
    • วิเคราะห์แนวโน้มความต้องการสินค้า (Demand Forecasting)
      .
  5. Foundation Models (เช่น GPT, Claude, Titan ฯลฯ) จะมี ขีดจำกัดของจำนวน Token ที่สามารถรับเข้าได้ในแต่ละครั้ง — ซึ่งเราเรียกว่า Context Window 🪟
    • ถ้า Input ยาวเกินจำนวน Token ที่ Model รองรับ (เช่น ยัด “ทั้งเล่มของหนังสือ” เข้าไปใน Prompt) → Model จะไม่สามารถประมวลผลได้ ❌
    • วิธีแก้คือ ต้อง สรุป, ตัดแบ่งเป็นตอน, หรือใช้ Technique Chunking + Retrieval (เช่น RAG) เพื่อจัดการกับข้อความยาว
      .
  6. PII (Personally Identifiable Information) คือข้อมูลที่สามารถระบุตัวบุคคลได้ เช่น ชื่อ-นามสกุล, เบอร์โทรศัพท์, เลขบัญชี / บัตรประชาชน, ที่อยู่ / Email
    ถ้าไม่ลบข้อมูลเหล่านี้ออกก่อน Fine-tune Model อาจ “จำ” ข้อมูลเหล่านี้และ “เปิดเผยออกมาโดยไม่ได้ตั้งใจ” ในการใช้งานภายหลัง ซึ่งถือว่าละเมิดความเป็นส่วนตัวของลูกค้า
    ดังนั้น การลบ PII ออกก่อน Training จึงเป็นการป้องกันที่ดีที่สุด 💪

  7. Technique AI / Machine Learning:
    🗣️ Review ข้อความ > Review ลูกค้า, Comment, Email > Natural Language Processing (NLP) > ใช้เข้าใจความหมายของข้อความ เช่น การวิเคราะห์ Sentiment (บวก/ลบ), สรุปข้อความ, แปลภาษา
    🐶 ภาพที่มี Label ชนิดสัตว์ > รูปหมา, แมว, นก พร้อม Label > Computer Vision > ใช้ให้ Computer “มองเห็น” และจำแนกภาพ เช่น ตรวจจับวัตถุ, จำแนกภาพ
    💹 ยอดขายรายวัน > ยอดขายต่อวันของสินค้า > Time Series Forecasting > ใช้คาดการณ์อนาคต เช่น คาดการณ์ยอดขาย, ความต้องการสินค้า, ปริมาณพลังงาน

  8. Amazon SageMaker Ground Truth Plus → บริการ Labeling แบบ Fully Managed
    AWS จัดการ Team คนทำ Labeling, เครื่องมือ และ Workflow ให้ครบ ไม่ต้องตั้งระบบเอง

  9. Few-shot Learning คือการสอน Model โดยให้ตัวอย่างเพียง “ไม่กี่ชุด” (เช่น 3–5 ตัวอย่าง) เพื่อให้ Model เรียนรู้ Pattern และ ความสัมพันธ์ ระหว่าง Input และ Output ได้เอง
    💬 ในกรณีของ Chatbot — Intent Detection
    Input: ข้อความจากผู้ใช้ (User Message)
    Output: ความตั้งใจของผู้ใช้ (Intent) เช่น “จองโต๊ะ”, “เช็กสถานะพัสดุ”, “สอบถามราคา”
    ดังนั้น few-shot prompt ที่ดีจะหน้าตาประมาณนี้ 👇

    Code:
    You are a chatbot that detects user intent.
    
    Examples:
    User: "Book a table for two at 7 PM"
    Intent: Reservation
    
    User: "Where is my package?"
    Intent: Order tracking
    
    User: "How much does this cost?"
    Intent: Pricing inquiry
    
    Now classify this:
    User: "I'd like to reserve a seat for tonight"
    Intent:

    ช่วยให้ Model เรียนรู้ว่า คำพูดแบบไหน → สื่อถึงเจตนาแบบใด

  10. Network Isolation ใน SageMaker เมื่อเปิดใช้ (Enable Network Isolation) หมายความว่า งาน Training หรือ Inference ของ Model จะถูก Run ภายใน VPC (Virtual Private Cloud) และ จะไม่มีการเชื่อมต่อออกสู่ Internet ได้เลย (No outbound network calls)
    ✅ประโยชน์หลัก
    • เพิ่มความปลอดภัย (Security): ป้องกันไม่ให้ Model หรือ Code ภายในหลุดเชื่อมต่อหรือส่งข้อมูลออกไปนอกเครือข่าย
    • สอดคล้องตามกฎระเบียบ (Compliance): เช่น GDPR หรือ HIPAA ที่ห้ามส่งข้อมูลลูกค้าออกนอกระบบ
    • เหมาะกับงานข้อมูลอ่อนไหว (Sensitive Data): เช่น การ Train Model จากข้อมูลภายในองค์กรหรือสถาบันการเงิน
      .
  11. 🧠 Multi-Modal Embedding Model คือประเภทของ Foundation Model (FM) ที่เหมาะสมที่สุดสำหรับระบบค้นหา (Search App) ซึ่งต้องรองรับ คำค้น (Queries) ที่มีทั้ง ข้อความ (Text) และ รูปภาพ (Image)
    🔍เหตุผลที่ Model นี้เหมาะสม:
    • ประมวลผลข้อมูลหลายรูปแบบได้ (Handles Multiple Modalities): Model สามารถเข้าใจและรวมข้อมูลจากทั้งข้อความและรูปภาพไว้ใน Common Representation Space
    • ค้นหาได้แม่นยำมากขึ้น (Improves Search Relevance): เพราะ Model สามารถเชื่อมโยงความหมายระหว่างข้อความและภาพ ทำให้แสดงผลลัพธ์ที่เกี่ยวข้องกันมากขึ้น
    • 🧩 ตัวอย่าง:
      ผู้ใช้พิมพ์คำว่า “Red Sneakers” แล้วระบบสามารถค้นหาภาพรองเท้าผ้าใบสีแดงได้จากฐานข้อมูลรูปภาพ — เพราะ Model เข้าใจทั้ง “Text” และ “Image” อยู่ในมิติเดียวกันนั่นเอง
      .
  12. 🔒 การใช้ Large Language Models (LLMs) บน Amazon Bedrock อย่างปลอดภัย องค์กรควรออกแบบ Prompt ที่ชัดเจนและเฉพาะเจาะจง เพื่อหลีกเลี่ยงผลลัพธ์ที่ไม่ตั้งใจ (Unintended Output) และต้อง กำหนดค่า AWS IAM ให้ถูกต้องตามหลัก “Least Privilege” — คือให้สิทธิ์เข้าถึงเท่าที่จำเป็นเท่านั้น แนวทางนี้ช่วยจำกัดการเข้าถึงข้อมูลที่อ่อนไหว และลดผลกระทบที่อาจเกิดขึ้นจากเหตุการณ์ด้านความปลอดภัย

  13. 🛡️ Guardrails for Amazon Bedrock เป็นกลไกที่ใช้ กรอง (Filter) และ ควบคุม (Control) เนื้อหาที่ Model สร้างขึ้น เพื่อให้เป็นไปตาม ข้อกำหนดด้านความเป็นส่วนตัว (Privacy) และ Policy
    การใช้ Guardrails ช่วยให้มั่นใจได้ว่า ข้อมูลที่อ่อนไหวหรือข้อมูลส่วนบุคคล (Sensitive/Personal Information) จะไม่ถูกสร้างหรือแสดงออกมาในคำตอบของ Model นอกจากนี้ การเชื่อมต่อกับ Amazon CloudWatch Alarms ยังช่วยให้สามารถรับ การแจ้งเตือนแบบ Real-time ได้ทันที เมื่อมีการละเมิด Policy เกิดขึ้น

  14. 🎯 Supervised Learning (การเรียนรู้แบบมีผู้สอน) 👉ใช้ข้อมูลที่มี “Label” หรือคำตอบอยู่แล้ว เพื่อให้ Model เรียนรู้ความสัมพันธ์ระหว่างข้อมูลและผลลัพธ์ ตัวอย่าง:
    • Binary Classification (การจำแนกสองกลุ่ม) เช่น ทำนายว่า Email นี้เป็น Spam หรือไม่ (มี 2 Class: ใช่/ไม่ใช่)
    • Multi-class Classification (การจำแนกหลายกลุ่ม) เช่น จำแนกว่า ภาพนี้คือแมว หมา หรือม้า (มากกว่า 2 Class)

      🔍 Unsupervised Learning (การเรียนรู้แบบไม่มีผู้สอน) 👉 ใช้ข้อมูลที่ไม่มี Label ให้ Model ต้องค้นหารูปแบบหรือโครงสร้างในข้อมูลเอง ตัวอย่าง:
    • K-Means Clustering (การจัดกลุ่มข้อมูล) เช่น แบ่งลูกค้าออกเป็นกลุ่มตามพฤติกรรมการซื้อ โดยไม่รู้ล่วงหน้าว่ามีกี่กลุ่ม
    • Dimensionality Reduction (การลดมิติของข้อมูล) เช่น ใช้ Principal Component Analysis (PCA) เพื่อลดจำนวน Feature ลง แต่ยังคงข้อมูลสำคัญไว้
      .
  15. Confusion Matrix เป็นเครื่องมือหลักในการวัดประสิทธิภาพ (Performance) ของ Model จำแนกประเภท
    ใช้คำนวณค่าวัดอื่น ๆ เช่น Accuracy (ความถูกต้องโดยรวม), Precision (ความแม่นยำของผลที่เป็นบวก), Recall (ความครบถ้วนในการตรวจเจอ), F1-score (สมดุลระหว่าง Precision และ Recall)
    ช่วยให้เห็นภาพชัดว่า Model พลาดตรงไหน เช่น ทำนายผิด Class ไหนบ่อย

  16. การวัด “ความแม่นยำ (Accuracy)” ของ FM ที่ใช้ในงาน Image Classification (จำแนกรูปภาพ)
    วิธีที่ถูกต้องคือ 👉 เปรียบเทียบผลทำนายของ Model กับ “Benchmark Dataset” ที่ถูกกำหนดไว้ล่วงหน้า
    ในงานจำแนกรูปภาพ เราจะมี Dataset มาตรฐาน (Benchmark Dataset) ที่มี “คำตอบจริง (True Label)” อยู่แล้ว เช่น รูปภาพแต่ละใบมีการระบุไว้ว่าเป็น “แมว” หรือ “หมา” เป็นต้น
    จากนั้น นำ Model มาทำนายภาพในชุดนั้น แล้วดูว่า Model ทำนายถูกกี่ภาพจากทั้งหมด → เพื่อคำนวณ “Accuracy”
:cool:
 
Last edited:
Top