Tag: blog

  • สรุป Live “นายอาร์ม x เท้ง ณัฐพงษ์” ในมุมมองคนทำงานราชการ: ทำไมรัฐบาลดิจิทัลถึงยังไม่เกิด?

    สวัสดีครับวันนี้เห็นผมเห็นไลฟ์ระหว่างนายอาร์มกับคุณเท้ง ซึ่งตัวผมก็ทำงานอยู่ในแวดวงราชการอยู่แล้ว ก็เลยนั่งฟังแล้วก็สรุปโดยให้ AI ช่วยเรียบเรียงภาษาและเป็นหัวข้อครับ

    1. ทำไม “รัฐบาลดิจิทัล” ถึงไม่เกิดสักที? (ปัญหาโครงสร้าง)

    • ขาดเจ้าภาพตัวจริง: นโยบายมีมานานแต่ไม่มีใครรับผิดชอบเบ็ดเสร็จ (Single App Digital ID ไม่เกิดเพราะเหตุนี้)
    • ติดกับดักระบบราชการ (Silo): ต่างคนต่างหวงข้อมูล อ้าง PDPA ผิดพรบ ทำให้ DGA (สพร.) สั่งการข้ามหน่วยงานยาก แม้แต่นายกฯ สั่งก็เช็คยากว่าใครทำตามบ้าง เพราะจัดซื้อจัดจ้างเยอะมาก (ระดับ สำนักไปจนถึงระดับ กระทรวง)
    • ปัญหาใหญ่คือ “TOR” และ “การจัดซื้อจัดจ้าง”:
      • การเขียน TOR ปัจจุบันขาดมาตรฐาน ต่างคนต่างจ้าง ทำให้โครงการบวมและตรวจสอบยาก
      • นอกจากเรื่อง TOR แล้วราชการก็ขาดคนที่มีความสามารถ ทำให้ต้องจ้างคนนอกมาเขียน TOR ( ที่ปรึกษา ) ซึ่งคนเหล่านี้เก่งจริงแต่ไม่ใช่คนที่คลุกคลีอยู่ในงานทำให้ขาดการกำหนด TOR
      • ทางแก้: คุณเท้งคิดว่าต้องแก้ที่ต้นน้ำ (กรมบัญชีกลาง) กำหนดมาตรฐานกลาง (Standard Design System) บังคับใช้ Open Source หรือ Microservices ล็อกสเปกขั้นต่ำให้ชัดเจน ใครจะประมูลต้องผ่านเกณฑ์นี้
      • เปลี่ยนวิธีคิดจากซื้อโครงการ (Project) เป็นการเช่าใช้บริการ (Utility/Subscription) เพื่อแก้ปัญหาการขึ้น Cloud
      • เรื่อง Cloud นายอาร์มถามหลายอย่างเช่น
      • ปัญหามีหลายอย่างมาก
        • เอาข้อมูลฝากข้างนอกไม่ได้
        • จนท ไม่ชำนาญ
        • ระบบเก่าอยู่บน on premise ขึ้น cloud ไม่ได้
        • ระเบียบจัดซื้อจัดจ้าง TOR
      • แต่ว่าจริงๆ พวกระเบียบและกฎสามารถให้ทำได้แล้วแต่ว่าคนส่วนใหญ่ที่มาเขียน TOR อาจจะไม่ใช่ผู้ที่ถนัดหรือไม่ชัวร์จึงเลือกเขียนแบบเดิมๆ

    2. โครงสร้างพื้นฐาน: Digital ID และ Data Sharing

    • THAID vs NDID:
      • THAID: รัฐทำได้ดีเรื่องการยืนยันตัวตน (Authentication) แต่ยังขาดเรื่องการแชร์ข้อมูล
      • NDID: โมเดลดีมาก (แบบ Estonia) ออกแบบมาเพื่อ Data Sharing แต่ปัจจุบันรันโดยเอกชน มีค่าธรรมเนียมแพง (200 ล้าน/ปี) ทำให้คนใช้น้อย
    • ข้อเสนอ: รัฐควรเข้าไปดูแล NDID (อาจจะ Takeover หรืออุดหนุน) เปลี่ยนให้เป็น Infrastructure ฟรีของประเทศ เพื่อให้ข้อมูลไหลเวียนได้จริง โดยมี “ทางรัฐ” เป็น Portal กลาง

    3. การปราบอาชญากรรมไซเบอร์ (Scammers & Fraud)

    • Scammer ต้นทุนต่ำ กำไรสูง: โจรใช้เทคโนโลยีขยายวงกว้างได้ง่าย แต่ตำรวจตามจับยากเพราะติดขัดเรื่องข้อมูล
    • Data Bureau & CFR: ต้องมีถังข้อมูลกลาง (Central Fraud Registry) เพื่อตรวจสอบความผิดปกติ
    • การเชื่อมข้อมูล: ใช้เทคนิค Hashing/Surrogate Key เพื่อเชื่อมข้อมูลหลังบ้านโดยไม่ละเมิด Privacy (รู้ว่าเป็นใครเมื่อเจอความผิดปกติ)
    • คุณเท้งบอกว่า สมัยก่อนเวลาฟอกเงิน พวกนี้จะฟอกผ่านคริปโตแต่ตอนหลังเน้นเปลี่ยนไปฟอกผ่านทองคำ
    • อุปสรรคหน้างาน: ตำรวจและอัยการยังติดเรื่องเอกสารกระดาษ (Hard Copy) กฎหมาย (ป.วิ.อาญา) ต้องแก้ให้รองรับหลักฐานดิจิทัลเต็มรูปแบบ
    • ปัญหาอีกด้านของคนปฏิบัติ เพราะการถ่ายทอดโยบาย นั้น เจ้าหน้าที่คุ้นชินกับแบบเดิมๆ
      • คุณเท้งเสนอว่าตัดตัวกลางออกก็อาจจะเป็น Solution (ตัดคนปฏิบัติงาน)
    • แต่ว่ากลุ่ม เปราะบาง เช่น คนแก่ อะ ถ้า รัฐดิจิตอลก็ใช้ เครื่องkiosk กับเจ้าหน้าที่ไปเฝ้าเครื่องให้พวกเขาก้ได้เหมือนกัน

    4. การใช้ AI และ Tech แก้ปัญหาประเทศ

    • Anti-Corruption: Gen AI ยังไม่เหมาะ (เพราะมั่วข้อมูลได้/Hallucination) ต้องใช้ Neural Network เน้น Classification ตรวจจับความผิดปกติ
    • PM 2.5: ใช้ภาพถ่ายดาวเทียม + AI Processing หาจุดเผาข้ามพรมแดน เพื่อใช้เป็นหลักฐานและบังคับใช้กฎหมาย
    • Smart Farming: รัฐทำหน้าที่เป็น Platform จับคู่เกษตรกรกับผู้ให้เช่าเครื่องจักร (Matching Demand/Supply) แจกคูปองอุดหนุนค่าเช่าแทนการซื้อแจก

    5. วิสัยทัศน์การทำงานและ Lifestyle (คุณเท้ง)

    • เปลี่ยนจาก Project เป็น Product: รัฐต้องเลิกจ้างแบบ Waterfall แล้วหันมาสร้างทีม Digital (Dream Team) ที่ทำงานแบบ Agile มี Product Manager (PO) ดูแลโปรดักต์ต่อเนื่อง
    • สไตล์การทำงาน: เน้นกระจายอำนาจ (Delegation) ทำงานเป็นทีมแบบ Chief of Staff ไม่รู้ต้องถามผู้รู้จริง
    • นโยบายต่างประเทศ: ต้องกอบกู้ที่ยืนของไทยในเวทีโลก (Global Standing)
    • Lifestyle: ชอบอ่านหนังสือ, ออกกำลังกาย, ดูหนัง (Interstellar, Designated Survivor)

    6. อื่นๆ

    • นายอาร์มบ่นกับคุณเท้งว่า ทำไมเป๋าตังค์ ถึงได้สิทธิ์ทำใบขับขี่สากลไม่ใช่ทางรัฐ
    • นายอาร์มถามคุณเท้งเลือก Recommender System ที่ Netflix ใช้ ( System Design ) ซึ่งก็ตอบตามที่เรียนที่ Edinburgh เป๊ะๆ

    ในฐานะข้าราชการ ผมเห็นด้วยเรื่องปัญหาการเขียน TOR มากๆครับ เพราะว่าโดยทั่วไปแล้ว TOR ของราชการจะถูกเขียนออกมาให้มี Scope ที่กว้างไว้ก่อนเพราะต่างคนก็กลัวโดนกฎหมายเล่นงานกันทั้งนั้น ซึ่งมันทำให้ผู้เข้าประมูลสามารถเลือกใช้ผลิตภัณฑ์ที่ตนถนัดแต่อาจจะไม่ใช่มาตรฐานสากลได้เช่นกัน ไหนจะการฮั้วการประมูลโดยส่งคนเข้ามาบิดแข่งแต่ว่าตั้งราคาให้น้อยกว่าไม่มากส่งผลให้บริษัทที่ได้ดีลกันไว้แล้วได้รับงานนั้นไป

    ก็หวังว่าเนื้อหาที่ผมแชร์ในวันนี้จะช่วยให้เพื่อนๆ เห็นภาพกันมากขึ้นนะครับ

  • ทำความรู้จัก n8n: ระบบ Workflow Automation

    ทำความรู้จัก n8n: ระบบ Workflow Automation

    ตั้งแต่ช่วงต้นปีที่ผ่านมา ผมเชื่อว่าทุกคนต้องเคยเลื่อนผ่าน ไม่ว่าจะเป็น Youtube Short, Facebook Reel , Instragram หรือ เจ้าแม่ short video อย่าง Tiktok ผมเชื่อว่าทุกคนต้องเคยเห็นคลิปวีดิโอที่ทำมาจาก AI ต่างๆนานา อย่างแน่นอนใช่ไหมครับ

    ด้วยความสงสัย และ ใคร่รู้ว่า เอ้ย คนพวกนี้เขาทำกันยังไงนะ ละแบบเขามาโพสต่อเนื่องกันได้ทุกวี่ทุกวันเลยหรอ ละแบบ แต่ละคลิปก็ดูไม่ค่อยซ้ำกันเลยคิดได้ไงนะ

    ด้วยเหตุนี้ผมจึงตัดสินใจที่ลองหาข้อมูล ละก็ไปเจอว่า เออ มันมี Tools ตัวหนึ่งที่เอาไว้ทำ Workflow Automation ชื่อ n8n (เอน-เอ็ท-เอน) นั้นเอง

    ผมจึงหยิบเจ้าซอฟแวร์ตัวเนี้ย ไหนมาลองเล่นบ้างสิ ไปๆมาๆ ก็รู้สึกว่า มันเป็น Low Code ที่สะดวกมากกกกก และสามารถเชื่อมต่อกับโลกอินเตอร์เน็ตได้อย่างไร้ขีดจำกัดเลยทีเดียว

    และมันก็ทำให้ผมสามารถนำไปประยุกต์ใช้กับงานราชการได้อย่างดีเยี่ยมเลยละครับ ระบบงานที่ขึ้นชื่อเรื่องความเยอะ และ ต้องลีนยิ่งกว่า Startup เสียอีก 555+

    เนื้อหาในบทความนี้ผมจะมาเล่า และ อธิบายว่า n8n คืออะไรแล้วมันดียังไงกันครับ และแถมด้วยการพาดู Workflow แบบ basic ที่ใครๆก็สามารถนำไปลองทำได้

    Table of Content

    1. ทำความรู้จัก N8N
    2. ทำไม n8n ถึงเหมาะกับงานราชการ
    3. n8n ให้บริการรูปแบบไหนบ้าง ( Cloud & Self-hosted )
    4. ข้อควรระวังในการใช้งานข้อมูล
    5. มาลองติดตั้ง n8n กันเถ๊อะ
    6. ทดลองทำ Workflow ง่ายๆ 1 อัน
    7. บทสรุป

    1. ทำความรู้จัก n8n

    n8n (เอ็น-เอท-เอ็น) เป็นระบบให้บริการทางด้านซอฟแวร์สำหรับการทำกระบวนการอัตโนมัติ (Workflow Automation) ที่ผสมผสานความสามารถของ AI กับกระบวนการทางด้านธุรกิจได้อย่างลงตัว

    ด้วยความที่ซอฟแวร์ไม่ต้องพึ่งพาทักษะในด้านการเขียนโปรแกรมมากนัก ทำให้รอยต่อระหว่างฝั่งธุรกิจ (business) และ ฝั่งนักพัฒนา (developer) นั้นแคบลง และช่วยให้เกิดความหยืดยุ่นเป็นอย่างมากกับบริษัท

    บน n8n นั้น มีสิ่งที่เรียกว่า Nodes เพื่อใช้ในการเชื่อมโยงแพลทฟอร์มอื่นๆมากกว่า 500 รายการซึ่งจะช่วยให้คุณสามารถเข้าถึงและเชื่อมโยงสิ่งๆต่างรอบตัวคุณได้อย่างมีประสิทธิภาพสุดๆ

    2. ทำไม n8n ถึงเหมาะกับงานราชการ

    หลายท่านที่ทำงานในราชการมันทั้งจำเจ วกวน และวุ่นวายแค่ไหน ?

    ทั้งงานเอกสาร การประชุม การส่งไปอบรม และอื่นๆอีกร้อยแปดพันเก้าที่แสนจะวุ่นวาย

    ไหนจะจำนวนคนที่น้อย อย่างผมทำงานด้านคอมพิวเตอร์ มีคนอยู่หยิบมือ แต่งานกองเท่าภูเขาเลากา ทำไปก็บ่นไป ด้วยเหตุนี้ถ้าเราสามารถลดงานเรานี้ได้และผลักภาระงานสุดแสนจะน่าเบื่อนี้ให้ ใครเป็นคนทำมันจะดีกว่าไหมละ ?

    ลองจินตนาการตามผมนะครับ คุณมีเวลาให้ตัวเองมากขึ้น สามารถพัฒนาคุณภาพชีวิตตัวเองเอ่ย คุณภาพทีมของคุณเอ่ย หรือไปจนถึงพัฒนาการทำงานในระดับองค์กรดูสิ

    หรือไม่ต้องพัฒนาลงพัฒนาอะไรหรอก เอาแค่มีเวลาได้นอนตีพุงอยู่บ้าน ดู Netflix ชิวๆ และเลิกงานตรงเวลา แค่นี้ชีวิตก็โคตรจะสบายแล้วครับผมว่า

    ผมลองมาคิดคร่าวๆ ซัก 5-10 ไอเดีย ที่จะช่วยลดงานข้าราชการทั้งด้านเอกสาร ด้านภาคบริการประชาชน และด้านพัฒนาตนเอง เช่น

    1. Workflow ที่จะช่วยงานของทีม HR ในการเพิ่มผู้ใช้งานระบบได้เร็วขึ้น (Onboarding Workflow Automation)
    2. Workflow สำหรับแจ้งเตือนเมื่อระบบมีปัญหา (Alerting Workflow)
    3. Workflow สำหรับแจ้งซ่อมผ่านทางระบบแชทไลน์ (Support Service Automation Workflow)
    4. Chatbot สำหรับถามตอบให้ลูกค้าไปยังระบบได้ถูกต้อง (Intelligence Chatbot) ที่กรมบังคับคดี เรามีระบบเยอะมาก เยอะจนงง เยอะจนคนในยังลืมว่าระบบอะไร Silo ไปอี๊กกก
    5. Workflow สำหรับทำเรื่องเปลียนรหัสผ่านสำหรับผู้ใช้งานภายใน (Forget Password Automation Workflow).

    เห็นไหมครับ ? ถ้าเราเอามาลดงานพวกนี้น้า เราจะมีเวลาไปทำอย่างอื่น หรือพักผ่อนได้อีกเยอะเลย แถมอาจจะช่วยให้เรารู้สึกเครียดน้อยลงได้อีกด้วย

    เอาละหลังจากเราสาธยายความดีงามของมันมามากพอละ ปะ ไปดูว่า n8n มีแบบไหนบ้าง

    3. n8n ให้บริการรูปแบบไหนบ้าง ( Cloud & Self-hosted )

    n8n มีรูปแบบการให้บริการหลัก ๆ สองแบบได้แก่ Self-hosted และ Cloud Subscription เรามาเริ่มกันที่ Cloud Subscription กันก่อน

    Cloud Subscription

    สำหรับเวอร์ชั่นนี้เป็น iPaaS (Integration Platform as a Service) เหมือนกับพวก Make หรือ Zapier เลย ก็คือเราเสียเงินค่า Subscription เราก็สามารถเข้าไปใช้งานได้ทันทีเลย เรียกได้ว่าใช้เงินแก้ปัญหา

    ข้อดีเด่น ๆ ของ Cloud Subscription คือ:

    เริ่มงานได้ไว: ช่วยให้คุณสามารถโฟกัสกับการสร้าง Workflow ได้ทันที โดยไม่ต้องเสียเวลาไปกับการตั้งค่าระบบพื้นฐาน

    ความสะดวกสบาย: คุณไม่ต้องกังวลเรื่องการติดตั้งเซิร์ฟเวอร์, การดูแลความปลอดภัย, การจัดการ SSL Certificate ประจำปี หรือการอัปเดตเวอร์ชันซอฟต์แวร์ เพราะ n8n เป็นผู้ดูแลจัดการให้ทั้งหมด

    ทีนี้เราลองมาดูด้าน Self-hosted กันบ้างดีกว่า ว่ามันต่างกันอย่างไร

    Self-hosted

    บริการนี้จะเป็นการที่เรา ติดตั้ง n8n เองตั้งแต่ ตั้งค่า Virtual Machine หรือ VM ติดตั้ง Tools ต่างๆ จนไปถึงลง ซอฟแวร์ n8n เองทั้งหมด

    แม้ฟังดูเหมือนว่าจะฟรี แต่มันก็ไม่ได้ฟรีแบบจริงๆร้อยเปอร์เซ็นต์หรอกครับ ที่บอกว่าเหมือนจะฟรี ก็เพราะ n8n เขาจดสิทธิบัตร software ของเขา โดย based on fair-code model. นั้นเอง

    Fair Code Model คือการจด license แบบที่เราสามารถเอา sourcecode ของเขาไปใช้ได้ แก้ไขปรับปรุงได้ แต่ก็อาจจะมีเงื่อนไขบางอย่างที่ไม่ได้รับการรับรองจากทาง OSI Approved Licenses เช่นการเก็บข้อมูลเป็นต้น

    อย่างไรก็ตาม การเลือกใช้ Cloud Subscription หรือ Self-hosted นั้น ก็ขึ้นอยู่กับหลายปัจจัย อาทิ เช่น ความปลอดภัย การธรรมาภิบาลข้อมูล (Data Governance) และระดับความลับของข้อมูลเป็นต้น

    เพราะฉะนั้นแล้ว เรามาดูกันดีกว่าว่า n8n แต่ละแบบมีการเก็บข้อมูลอย่างไรกันบ้าง เพื่อใช้ประกอบการตัดสินใจในการเลือกวิธีการใช้งาน

    4. ข้อควรระวังในการใช้งานข้อมูล

    สำหรับ n8n แบบ Self-hosted

    1. รหัสข้อผิดพลาดและข้อความ (Error codes & Messages): สำหรับการรันเวิร์กโฟลว์ที่ล้มเหลว ( Failed Executions ) โดยจะไม่เก็บข้อมูล Payload และข้อมูลจาก Custom Nodes (เช่น หากคุณมี Web Server Node ที่เรียกใช้บน n8n)
    2. รายงานข้อผิดพลาด (Error Reports): สำหรับกรณีที่ แอพ n8n เกิดข้อผิดพลาดร้ายแรง หรือปัญหาเชิงเทคนิคของ API
    3. โครงสร้างของเวิร์กโฟลว์ (Workflow Structure): เช่น สำหรับ Workflow นี้ใช้ Node อะไรบ้างเป็นต้น เช่น Gmail, Azure เป็นต้น
    4. พารามิเตอร์ของ Node (Node Parameters): จะเก็บ Operation กับ Resource เท่านั้น (ถ้ามี) และ สำหรับ HTTP Request Node ก็จะเก็บ Domain, Path และ Method โดยข้อมูลส่วนบุคคลจะทำให้เป็นแบบปกปิดข้อมูลแทน
    5. สถานะการทำงานของเวิร์กโฟลว์ (Workflow Execution Data):
      • สถานะผลลัพธ์การทำงาน (เช่น 200 OK, 404 Not Found, 500 Internal Server Error)
      • รหัสผู้ใช้งานที่เรียกใช้ Workflow นั้นบน n8n
      • การโหลดข้อมูลครั้งแรกของเวิร์กโฟลว์จากแหล่งข้อมูลภายนอก
      • การรันเวิร์กโฟลว์ที่ประสบความสำเร็จครั้งแรกในโหมด Production (ไม่ใช่การรันด้วยตนเอง)
    6. Domain ของ Webhook Calls (หากมีการระบุ): โดยไม่รวม Subdomain
    7. รายละเอียดการใช้งานหน้าจอผู้ใช้ (UI Usage): เช่น การนำทาง (Navigation) หรือการค้นหาใน Nodes Panel
    8. ข้อมูลการวินิจฉัย (Diagnostic Information): เช่น n8n version, การตั้งค่าที่เลือก (Selected Settings) อย่าง DB_TYPE, N8N_VERSION_NOTIFICATIONS_ENABLED, N8N_DISABLE_PRODUCTION_MAIN_PROCESS, ตัวแปรการรัน (Execution Variables), ระบบปฏิบัติการ (OS), RAM, และ CPU, Anonymous Instance ID, และ IP Address
    9. IP Address

    จะเห็นได้ว่าถึงแม้ n8n จะพยายามหลีกเลี่ยงการเก็บข้อมูลส่วนบุคคลที่อาจขัดต่อ พ.ร.บ. คุ้มครองข้อมูลส่วนบุคคล (PDPA) หรือ GDPR แต่ก็ยังมีการเก็บข้อมูลทางเทคนิคและการใช้งานอยู่พอสมควร ซึ่งคุณควรพิจารณาในบริบทขององค์กรของคุณ

    สำหรับ n8n แบบ Cloud Subscription

    ในส่วนของ Cloud Subscription นั้น n8n จะมีการเก็บข้อมูลพื้นฐานเช่นเดียวกับ Self-hosted ทุกประการ และจะ เพิ่มเติม การเก็บข้อมูลบางส่วนเพื่อวัตถุประสงค์ในการปรับปรุงบริการและประสิทธิภาพของ AI ดังนี้:

    1. การจับการใช้งานหน้าจอ (Screen Recording Capture) เพื่อดูว่าผู้ใช้งานมีการเรียกใช้ node หรือการแสดงค่าอย่างไรบ้าง โดยปราศจากการเก็บข้อมูลส่วนบุคคล (ลบภายใน 21 วัน)
    2. การให้ AI chat เรียนรู้ ข้อมูล ณ​ ปัจจุบัน อย่าง workflow, context data I/O และ โค้ด ที่เขียนลงไปใน n8n เพื่อเพิ่มประสิทธิภาพในด้านประสบการณ์ผู้ใช้งาน (ลบภายใน 30 วัน)

    5. มาลองติดตั้ง n8n กันเถ๊อะ

    ก่อนอื่นเลยเราต้องมาอธิบายกันก่อนว่าอะไรคือ Docker และ อะไรคือ Docker Compose เพื่อที่เราจะได้เข้าใจเครื่องมือพื้นฐานสำคัญก่อนดำดิ่งสู่ของจริง

    Docker คืออะไร ?

    • Docker เป็น Open-Platform รูปแบบหนึ่งที่ให้นักพัฒนาสามารถที่จะ พัฒนา ใช้คำสั่ง และ ย้าย Application ของพวกเขาได้อย่างรวดเร็ว
    • Docker ช่วยให้เราสามารถรัน Applications ของเราแยกกันบนโครงสร้างพื้นฐาน (Infrastructure)เดียวกันได้ ช่วยห้เราสามารถ deliver งานได้ไวขึ้นและสามารถทำให้เราใช้สิ่งที่คนอื่นสร้างไว้แล้ว อย่าง Image เพื่อทำให้ขึ้นงานได้ไวอีกด้วย

    Docker Compose

    • เป็นเครื่องมือที่ใช้ในการกำหนดและรัน container หลายๆอันพร้อมๆกันได้
    • โดยปกติ เราจะต้องมานั่งรัน docker build และ docker run ทีละ Dockerfile ใช่ไหมครับ มันช้า เขาก็เลยสร้างเครื่องมือตัวนี้ให้เราสามารถเขียน docker-compose.yml ไฟล์เดียวแล้วรัน containers ขึ้นมาพร้อมกันๆหลายๆอันได้เลย

    สำหรับบทความนี้เราจะไม่ได้อธิบายวิธีการติดตั้ง Docker และ Docker Compose นะครับ แต่ทุกท่านสามารถดูวิธีการติดตั้งได้โดยคลิกที่นี้

    DigitalOcean Droplet

    ใน Tutorial นี้เพื่อให้เหมือนกับของจริงเวลาคุณได้เครื่อง VM จาก Cloud ภาครัฐ GDCC หรือ Cloud จากทีม Network ของคุณสร้างให้ เราจะใช้ VM จากทาง DigitalOcean Droplets นะครับ

    DigitalOcean Droplets

    • Virtual Machine ที่เป็น linux-based ออนไลน์อยู่บน hardware เสมือนจริงที่ทาง DigitalOcean เป็นคนสร้างให้

    สำหรับบทความนี้เพื่อนๆสามารถดูวิธีการติดตั้ง Droplet โดยคลิกลิ้งค์นีได้เลยนะครับ หากไม่สะดวกภาษาอังกฤษ ผมแนะนำว่าให้ Copy เนื้อหาแล้วเอาไปแปะให้ AI แปลให้จะสะดวกมากๆเลยครับ

    สมมติว่าคุณได้ Droplet มาเรียบร้อยแล้ว ขั้นตอนแรกคือการเชื่อมต่อไปยังเซิร์ฟเวอร์ของคุณผ่าน Terminal

    ssh -i ~/.ssh/<public_ssh_key> <username>@<droplet_ip>
    

    ถ้าคุณเลือกว่าจะใส่ passphrase ระบบก็จะถามเราก็ใส่ passphrase ให้ถูกตามที่เรากรอก หรือถ้าเราเป็นคนขี้เกียจก็ ssh-add <ssh_private_key> ไปก็จะไม่ต้องใส่ passphrase ทุกรอบ

    เมื่อ log in เข้ามาแล้ว ผมแนะนำว่าให้สร้าง user ใหม่แทนนะครับเพื่อความปลอดภัย และหลีกเลี่ยงการใช้ Root user

    สมมติว่าคุณได้ Droplet มาเรียบร้อยแล้ว ขั้นตอนแรกคือการเชื่อมต่อไปยังเซิร์ฟเวอร์ของคุณผ่าน Terminal:

    adduser <username>
    

    ระบบก็จะให้เรากรอกข้อมูลต่างๆ เราก็ค่อยๆกรอกไป ก็จะมีทั้ง รหัสผ่าน, ชื่อ, ที่ทำงาน, เบอร์โทรศัพท์ เป็นต้น

    จากนั้นเราก็ให้สิทธิ์ admin กับ user ของเรา

    usermod -aG sudo <username>
    

    ทีนี้เราก็สามารถเรียกใช้คำสั่งที่ต้องอาศัยสิทธิ์​ super user ได้แล้ว โดยสามารถใส่ sudo ด้านหน้าเพื่อใช้ง

    จากนั้นเราก็ทำการสร้าง ssh key อันใหม่สำหรับ user นี้เพื่อที่เราจะได้ ssh จากเครื่องเราได้และไม่ต้องผ่าน root อีกต่อไป Add Public Key Authentication.

    เมื่อทำเสร็จแล้วก็ exit ออกจากเครื่อง Vm และทำการ ssh เข้าไปใหม่ด้วย user ที่เราสร้างนั้นเอง

    ssh -i ~/.ssh/id_n8n_admin <username>@<droplet_ip>
    

    Clone Project และเตรียม Docker Volumes

    เอาหละเมื่อได้ user ใหม่แล้วเราก็ต้องทำการ clone project ลงมา

    git clone https://github.com/n8n-io/n8n-docker-caddy.git
    

    เมื่อ clone เสร็จแล้ว เราก็​จะทำการเปลี่ยน directory ก่อน

    cd n8n-docker-caddy
    ls
    

    สำหรับตรงจุดเดี๋ยวเราจะวนกับมาอธิบายเพิ่มเติมหลังจากที่เราได้เปิดดู docker-compose.yml


    เพื่อให้เวลาเรา build docker container เป็นไปอย่างรวดเร็วและข้อมูลคงอยู่ถาวร เราควรสร้าง Docker Volume เก็บไว้ โดยในที่นี้เราจะสร้าง 2 ตัว นั้นคือสำหรับ caddy เพื่อเก็บ cache และ n8n_data นั้นเอง

    sudo docker volume create caddy_data
    sudo docker volume create n8n_data
    

    จากนั้นเพื่อให้ n8n ของเรารันในฐานะ Web Application ได้ เราก็จะต้องเปิด port 80 สำหรับ non-secure traffic และ 443 สำหรับ secure traffic ด้วยการเรียกใช้คำสั่งด้านล่างจะเป็นการเปิด port ใน Firewallครับ

    sudo ufw allow 80
    sudo ufw allow 443
    

    ละก็มาถึงส่วนที่สำคัญที่สุดนั้นคือไฟล์ docker-compose.yml

     version: "3.7"
    
    services:
      caddy:
        image: caddy:latest
        restart: unless-stopped
        ports:
          - "80:80"
          - "443:443"
        volumes:
          - caddy_data:/data
          - ${DATA_FOLDER}/caddy_config:/config
          - ${DATA_FOLDER}/caddy_config/Caddyfile:/etc/caddy/Caddyfile
    
      n8n:
        image: docker.n8n.io/n8nio/n8n
        restart: always
        ports:
          - 5678:5678
        environment:
          - N8N_HOST=${SUBDOMAIN}.${DOMAIN_NAME}
          - N8N_PORT=5678
          - N8N_PROTOCOL=https
          - NODE_ENV=production
          - WEBHOOK_URL=https://${SUBDOMAIN}.${DOMAIN_NAME}/
          - GENERIC_TIMEZONE=${GENERIC_TIMEZONE}
        volumes:
          - n8n_data:/home/node/.n8n
          - ${DATA_FOLDER}/local_files:/files
    
    volumes:
      caddy_data:
        external: true
      n8n_data:
        external: true
    

    services: ส่วนนี้ใช้กำหนดบริการ (Services) ต่างๆ ที่จะถูกสร้างเป็น Container โดยในที่นี้คือ Caddy (Web Server/Reverse Proxy) และ n8n

    volumes: กำหนด External Volumes ที่เราสร้างไว้ก่อนหน้านี้ (caddy_data และ n8n_data) เพื่อใช้เป็น Persistent Storage ให้กับ Container

    image: ระบุ Docker Image ที่จะใช้สำหรับสร้าง Container ซึ่งจะดึงมาจาก Docker Hub

    restart: เป็น Tag ที่กำหนดพฤติกรรมการ Restart ของ Container หากหยุดทำงาน

    • unless-stopped (สำหรับ Caddy): Container จะ Restart อัตโนมัติ ยกเว้นคุณเป็นคนสั่งหยุดเอง
    • always (สำหรับ n8n): Container จะ Restart อัตโนมัติเสมอ ไม่ว่าจะหยุดทำงานด้วยสาเหตุใดก็ตาม
    • ข้อแตกต่างคือ หากคุณใช้คำสั่ง docker compose stop แบบ always จะรีสตาร์ทเองทันที แต่ unless-stopped คุณต้องสั่ง docker compose up ใหม่

    ports: ใช้กำหนดการเชื่อมโยง Port ระหว่าง Container ภายใน กับ Port ของเครื่อง VM ภายนอก (เช่น - 80:80 คือ Port 80 ภายนอกเชื่อมไป Port 80 ภายใน Container)

    environment: ใช้กำหนดตัวแปรสภาพแวดล้อม (Environment Variables) ภายใน Container ซึ่งจำเป็นสำหรับการตั้งค่าการทำงานของ n8n (เช่น Host, Port, Protocol, Timezone และ Webhook URL)

    เรามาดูกำหนดค่าใน .env แต่ละอันกันดีกว่าครับ

    # Replace <directory-path> with the path where you created folders earlier
    DATA_FOLDER=/<directory-path>/n8n-docker-caddy
    
    # The top level domain to serve from, this should be the same as the subdomain you created above
    DOMAIN_NAME=example.com
    
    # The subdomain to serve from
    SUBDOMAIN=n8n
    
    # DOMAIN_NAME and SUBDOMAIN combined decide where n8n will be reachable from
    # above example would result in: https://n8n.example.com
    
    # Optional timezone to set which gets used by Cron-Node by default
    # If not set New York time will be used
    GENERIC_TIMEZONE=Europe/Berlin
    
    # The email address to use for the SSL certificate creation
    SSL_EMAIL=example@example.com
    

    ถ้าเป็นของผม ผมก็จะกรอกแบบนี้ ข้อควรระวัง ตอนติดตั้งจริงๆ เนี้ยควรใช้ เป็น /etc เพื่อความปลอดภัยนะครับ

    # Replace <directory-path> with the path where you created folders earlier
    DATA_FOLDER=/demo/n8n-docker-caddy # ผมแนะนำว่าให้สร้างที่อื่นนะครับของจริง ผมสร้างใน /etc
    
    # The top level domain to serve from, this should be the same as the subdomain you created above
    DOMAIN_NAME=patrawi.com
    
    # The subdomain to serve from
    SUBDOMAIN=n8n
    
    # DOMAIN_NAME and SUBDOMAIN combined decide where n8n will be reachable from
    # above example would result in: https://n8n.example.com
    
    # Optional timezone to set which gets used by Cron-Node by default
    # If not set New York time will be used
    GENERIC_TIMEZONE=Asia/Bangkok
    
    # The email address to use for the SSL certificate creation
    # SSL_EMAIL=example@example.com
    

    เมื่อกำหนดเสร็จแล้วเราก็ต้องเข้าไปแก้ใน Caddy ต่อ เพื่อที่ Caddy จะได้ Reverse Proxy ทุก Ports ไปยัง Port 5678

    n8n.<domain>.<suffix> {
        reverse_proxy n8n:5678 {
          flush_interval -1
        }
    }
    

    สำหรับตรงนี้ผมก็จะแก้เป็น n8n.patrawi.com ที่เป็น domain ที่ผมซื้อไว้นั้นเอง อย่างไรก็ตาม หากเป็นการใช้งานในหน่วยงานของท่าน คุณจะต้องแจ้งทีม Network ให้เขากำหนด subdomain และ DNS recordให้เราอีกทีนะครับ เพื่อที่ DNS มองเห็น IP Address ของ VM ของคุณครับ

    เริ่มต้นและตั้งค่า DNS

    เมื่อแก้ Config ทั้งหมดเสร็จแล้ว ได้เวลา Spin up Container ของเราแล้วเย้

    sudo docker compose up -d
    

    แต่ว่าพอคุณ เปิดไปที่ dns ที่คุณกำหนดแล้ว คุณก็จะพบว่าข้อความ Can’t Reach This Server สาเหตุก็เป็นเพราะว่า DNS ของเรานั้นยังไม่ได้นำไปผูกกับ IP Address ที่ DigitalOcean นั้นเองเราก็จะต้องไปทำตรงนั้นกันก่อน


    *หมายเหตุ ถ้าเราให้ทีม network ของหน่วยงานเราเป็นคนสร้าง vm ขึ้นมาให้ตรงจุดนี้จะไม่มีปัญหานะครับ แต่จะไปมีปัญหาเรื่อง SSL/TLS แทนเดี๋ยวผมจะวนมาอธิบายให้ฟังอีกทีครับ

    ขั้นตอนการตั้งค่า DNS บน DigitalOcean (หรือผู้ให้บริการ DNS ของคุณ):

    1. เข้าไปที่ Dashboard ของ Droplet และเลือก Networking

    2. เลือก Tab Domains และใส่ Domain ที่ซื้อมา

    3. กรอก Domain ที่คุณซื้อมาลงในช่องว่าง

    4. สร้าง A Record แล้วเขียน Hostname เป็น n8n.patrawi.com (หรือ Subdomain ที่คุณต้องการ) และ Value ก็เลือกเป็น IP Address ของ VM ที่เราสร้าง

    เนื่องจากว่าปัจจุบัน blog นี้เป็น blog ที่บริหารและดูโดย WordPress รวมไปถึง Domainname ด้วย เพราะฉะนั้นผมจึงเลือกให้ WordPress เป็นคนบริหาร Domainname ด้วยเหตุนี้ผมจึงไม่มี NS Record ที่ชี้ไปที่ DigitalOcean

    ถ้าเป็นของทุกคนที่มาทำครั้งแรก จะมี NS ที่ชี้ไปที่ digitalocean อยู่ 3 อันให้ทำการลบออกด้วยนะครับ ถ้ากรณีจะให้ผู้ให้บริการเจ้าอื่น บริหารตรงจุดนี้

    หลังจากที่คุณตั้งค่า DNS ที่ผู้ให้บริการ Domain ของคุณเรียบร้อยแล้ว (เช่นในกรณีของผมที่ซื้อ Domain ผ่าน WordPress) คุณจะต้องแจ้งผู้ให้บริการ DNS ทราบว่า การเรียก Subdomain n8n นี้ ให้ Redirect ไปยัง IP Address ของ Droplet ของคุณ

    เมื่อดำเนินการเสร็จสิ้น คุณจะต้องรอสักระยะเพื่อให้ DNS Server ต่าง ๆ ทั่วโลกอัปเดตข้อมูล (Propagation) คุณสามารถตรวจสอบสถานะได้โดยใช้คำสั่ง

    dig <dns_name>
    

    หากขึ้นว่า NXDOMAIN หมายความว่า DNS Server นั้นยังไม่รู้จัก Domain ของคุณ ต้องรอต่อไปจนกว่าจะขึ้นว่า NOERROR นั่นแปลว่าคุณพร้อมใช้งานแล้วครับ!

    ทดสอบการติดตั้งและข้อสังเกตเกี่ยวกับ SSL/TLS

    เมื่อคุณลองเข้าถึง DNS Server ดังกล่าว และเห็นหน้าตาดังกล่าว:

    ยินดีด้วย! คุณติดตั้ง n8n server สำเร็จแล้ว!

    แต่เดี๋ยวก่อน! ก่อนที่เราจะจบบทความส่วนนี้ จำเรื่อง SSL/TLS ที่ผมทักไว้ได้ไหมครับ? ปัญหาคือ ปกติเมื่อเราใช้บริการผู้ให้บริการ DNS และ Server อย่าง DigitalOcean หรือ WordPress (ในกรณีของผม) พวกเขาจะดูแลจัดการเรื่อง SSL/TLS (ใบรับรองความปลอดภัย) ให้เรียบร้อย ทำให้ไม่มีปัญหาอะไร

    แต่ถ้าในกรณีที่คุณติดตั้ง n8n บนเครื่อง VM ที่คุณ Hypervise บน Hardware ของคุณเองล่ะ?

    ใช่ครับ! คุณจะต้องเป็นคนจัดการส่วนนี้เองทั้งหมด (เช่น การขอใบรับรอง SSL/TLS และการตั้งค่าให้ Web Server ใช้งาน) แต่ส่วนตัวผมคิดว่าหากลงรายละเอียดส่วนนี้ไปในตอนนี้ บทความจะยาวเกินไป และอาจทำให้เนื้อหาหลักเรื่องการติดตั้ง n8n เสียโฟกัสครับ

    สำหรับโพสต์นี้ การติดตั้ง n8n บน VM ถือว่าเสร็จสมบูรณ์แล้วครับ! และในส่วนสุดท้ายของบทความนี้ เมื่อเราติดตั้งสำเร็จแล้ว ก็ถึงเวลาที่จะมาลองสร้าง Workflow ง่ายๆ กันบ้าง เพื่อให้คุณเห็นภาพการทำงานจริงครับ

    6. ทดลองทำ Workflow ง่ายๆ 1 อัน

    ในส่วนนี้ ผมจะพาทำ Workflow ง่ายๆอย่างการดึงฟีดข่าวจาก Blognone แล้วนำไปโพสต์ใน Discord เพื่อที่เราจะได้ติดตามข่าวสารได้อย่างตลอดเวลาและตามทันโลกที่หมุนเร็วเสียยิ่งกว่าอะไร

    หลังจากที่เรากรอก Username, Password, Email ของ Admin เราก็จะเข้ามาที่หน้า Dashboard ที่หน้าตาอาจจะไม่เหมือนกับของผมหรอก แต่องค์ประกอบโดยรวมน่าจะคล้ายๆกัน

    1. สร้าง Workflow ใหม่

    จากนั้นให้เพื่อนๆคลิกไปที่ปุ่ม Create Workflow เพื่อสร้างหน้า Workflow อันใหม่ครับ

    ทุกคนจะได้หน้า freeform แบบนี้ครับผม โดยมี สี่เหลี่ยมบวกอยู่ตรงกลาง

    2. ตั้งชื่อ Workflow

    คลิกตรง My workflow เพื่อทำการเปลี่ยนชื่อให้สื่อความหมาย เพราะเวลาเรากลับมาแก้เราจได้รู้ว่าอันไหนเป็นอันไหนนะครับ

    แก้เสร็จแล้วก็ กดปุ่มตรงกลางได้เลยยย

    3. ตั้งค่า Trigger (RSS Feed)

    เมื่อกดแล้วจะมี แทบขึ้นมาด้านขวาใช่ไหมครับ ตรงส่วนนี้เราเรียกว่า Trigger อธิบายแบบง่ายก็คือเราจะให้ Workflow นี้เริ่มทำงานอย่างไร เดี๋ยวผมจะมีอีก โพสที่มาขยายความตรงนี้นะคับ แต่เบื้องต้นให้ทุกคนเลือก On App Event

    เมื่อคลิกไปแล้วก็จะได้ ช่อง Search มาพร้อมกับหลายชื่อ Node ต่างๆ สำหรับการ Integration นะครับ สำหรับเนื้อหาวันนี้ขอให้พิมพ์​ RSS ในช่องค้นหาครับผม และเลือก RSS Feed Trigger

    จากในรูปนี้ให้เราอย่าพึ่งไปสนใจตัว Poll Times โฟกัสไปที่ Feed URL ก่อน สำหรับในช่องนี้ ผมเลือกใช้ RSS Feed ของทาง blognone

    จากนั้นก็ลองกด Fetch Test Event เพื่อทดสอบผลลัพธ์

    เมื่อกดแล้วด้านขวาก็จะเป็น json ที่เราเรียกออกมานั้นเอง

    แต่อย่างที่ทุกคนเห็นเรายังไม่สามารถเอาลักษณะนี้ไปใช้ได้ เราต้องมีการจัดรูปแบบ JSON ก่อน ให้เพื่อนๆปิด ฟอร์มนี้ไปก่อนนะครับแล้วกด + เพื่อเพิ่มเมนู Data Transformation ต่อไป

    4. จัดรูปแบบข้อมูลด้วย Data Transformation (Edit Fields)

    การทำ Data Transformation คือการที่เราแก้ไข กรอง และแปรงข้อมูลให้อยู่ในรุปแบบต่างๆแทนนะครับ

    ในหน้า Data Transformation ให้เลือก “Edit Field”

    ในฟอร์มนี้ คุณสามารถ Drag & Drop Field ที่คุณต้องการใช้จากข้อมูล JSON ทางด้านซ้าย มาวางในช่องว่างตรงกลางได้เลยครับ

    ว่าแต่ แล้ว JSON คืออะไร ผมขอแวะอธิบายตรงนี้นิสสนึงนะครับ เพื่อไม่ให้เพื่อนๆสงสัย

    JSON คืออะไร

    JSON ย่อมาจาก JavaScript Object Notation เป็นรูปแบบข้อมูลประเภทหนึ่งที่นิยมใช้ในการส่งผ่านข้อมูลบน Protocol HTTP นั้นเอง โดยจะมีลักษณะการเก็บข้อมูลเป็น Key (ชื่อข้อมูล) และ Value (ค่าของข้อมูล)

    ตัวอย่างเช่น: หากมี Key คือ “Title” และ Value เป็น “Alibaba Cloud อัปเดตโมเดล Qwen3-235B-A22B เขียนโค้ดได้ระดับเดียวกับ Kimi K2 แต่ต้นทุนถูกลง” นั่นหมายความว่าหัวข้อข่าวคือข้อความนั้นนั่นเอง

    5. เชื่อมต่อและส่งข้อมูลไปยัง Discord

    โอเคเรากลับมาต่อที่เนื้อหากันดีกว่า หลังจากที่เราได้ มา 2 Node แล้วทีนี้ก็ถึงเวลาส่งข้อมูลกันแล้วครับ

    ให้เพื่อนๆ กด + แล้วก็จะได้หน้าตาแบบด้านล่างมาใช่ไหมครับ

    พิมพ์ลงไปว่า discord ดังรูป และเลือก เมนู Discord

    จากนั้นให้ทำการมองหาคำว่า Send a Message แล้วคลิกไปได้เลยครับ

    เพื่อนจะได้หน้าตา มาแบบนี้ใช่ไหมครับ ให้เพื่อนๆ เลือก ตรง Connection Type แล้วมองหาคำว่า Webhook

    ถามว่าทไมต้องเป็ฯ Webhook นอกจากจะเป็นวิธีที่เร็วและสะดวกที่สุดในการทำ RSS Feed Message Channel แล้ว ยังเป็นวิธีที่ง่ายที่สุดเมื่อเทียบกับอีก 2 ข้อนั้นเองครับ

    เมื่อเลือกมาแล้วให้เพื่อนๆ คลิก Create new Credential

    6. สร้าง Webhook URL จาก Discord

    ตอนนี้เราต้องสลับไปที่แอปพลิเคชัน Discord เพื่อไปคัดลอก Webhook URL มา

    เข้าไปที่ Text Channel ที่เราสนใจ และคลิกตรงรูปฟันเฟือง

    เลือก Tab Integration แล้ว กด Webhook

    หลังจากนั้นให้กด New Webhook

    เปลี่ยนชื่อ และ กด Copy Webhook URL

    7. วาง Webhook URL และจัดรูปแบบข้อความใน n8n

    Paste Webhook URL ที่คัดลอกมาจาก Discord ลงในช่องว่าง

    จัดรูปแบบข้อความที่จะโพสต์ใน Discord Node ของคุณ (เช่น การดึง Field Title หรือ Link จากขั้นตอน Data Transformation มาใช้ในข้อความ)

    สิ้นสุด Workflow แรก!

    และเราก็ทำ Workflow แรกเสร็จเรียบร้อยแล้ว หลังจากที่คุณตั้งค่าและจัดรูปแบบข้อความเสร็จ อย่างลืมกด Save และเปิดใช้งาน Workflow กันด้วยนะครับ

    7. บทสรุป

    เป็นอย่างไรกันบ้างครับ กับของเล่นใหม่ที่ผมอธิบายในวันนี้ ผมหวังว่าเพื่อนๆจะสามารถนำไปประยุกต์ใช้กันได้อย่างหลากหลาย และ สร้างสรรค์นะครับ

    ถ้าเพื่อนๆสงสัยอะไร สามารถสอบถามได้ใน Comment ได้เลยครับ ยินดีตอบครับผม

    แล้วในบทความถัดไป ผมจะมีเรื่องอะไรมาอธิบาย อย่าลืมติดตามกันนะครับ

    Related Article

    1. https://data-espresso.com/install-n8n-local-with-docker/
    2. https://docs.n8n.io/hosting/
    3. https://docs.n8n.io/hosting/installation/server-setups/digital-ocean/
    4. https://www.blognone.com/node/feed

  • รีวิวทุน ก.พ. UIS: Part 1 การเตรียมตัว

    รีวิวทุน ก.พ. UIS: Part 1 การเตรียมตัว

    สวัสดีครับ ขออนุญาตแนะนำตัวอีกซักครั้ง ผม พีรวัส วารีธัญญรัตน์ เรียกสั้นๆว่า พีร์ ก็พอ ผมเป็นนักเรียนทุน ก.พ. ทุนเพื่อดึงดูดผู้มีศักยภาพสูงที่กำลังศึกษาอยู่ในสถาบันการศึกษาในประเทศ (ทุน UIS)

    หลายๆท่านคงสงสัยว่าทุนอะไร ? มีทุนนี้ด้วยหรอ ? ละต่างจากทุนบุคคลทั่วไปยังไง ? วันนี้ผมจะมาแชร์ประสบการณ์ว่าเจอทุนนี้ได้อย่างไร สอบยากไหม ต้องฝึกงานหรือเปล่า พร้อมแล้วไปลุยกันเล๊ยย

    Table of Contents (ปรับปรุง)

    1. ทุน UIS คืออะไร? และผมหาทุนนี้เจอได้อย่างไร
    2. ด่านแรกสู่ทุน UIS: เกณฑ์การสมัครและภาพรวมกระบวนการ
      • คุณสมบัติของผู้มีสิทธิ์สมัครสอบ
      • เอกสารและหลักฐานที่ต้องเตรียม
      • ลำดับและช่วงเวลาของกระบวนการ
      • ภาพรวมโครงสร้างการคัดเลือก (5 ด่าน)
    3. เจาะลึกด่านที่ 1: การสอบข้อเขียน
      • เนื้อหาวิชาสอบข้อเขียน
      • รีวิวจากประสบการณ์: การเตรียมตัวและบรรยากาศวันสอบ
    4. เจาะลึกด่านที่ 2: การสอบภาคปฏิบัติ หรือการฝึกงาน และการเขียนเรียงความ
    5. เจาะลึกด่านที่ 3: การอภิปรายกลุ่ม
    6. เจาะลึกด่านที่ 4: การสอบสัมภาษณ์
    7. ก้าวสุดท้าย: การทำสัญญา
    8. บทสรุป Part 1 และบทถัดไปของ “การเดินทางกับทุน UIS”

    ทุน UIS คืออะไร? และผมหาทุนนี้เจอได้อย่างไร

    ทุน UIS

    เพื่อนคงสงสัยว่าทุน UIS คืออะไร ไม่ค่อยเห็นคนพูดถึง แล้วมันต่างจากทุนบุคคลทั่วไปอย่างไร ทุน UIS หรือ Undergraduate Intelligence Scholarship Program เป็นทุนที่มอบให้กับนิสิต/นักศึกษาในระดับปริญญาตรีปีสุดท้ายที่ที่มีความมุ่งมั่นอยากจะพัฒนาประเทศ

    ซึ่งเมื่อเรียนจบแล้ว จะได้รับการบรรจุราชการและเริ่มทำงานทันทีตามความต้องการของหน่วยงานที่ร้องขอตำแหน่งที่เราสมัคร ก่อนไปศึกษาต่อในระดับชั้นปริญญาโทในต่างประเทศ เพื่อที่จะได้นำความรู้กลับมาพัฒนาประเทศต่อไป อ้างอิงจาก ทุน UIS บน ก.พ.

    ช่วงที่ผมเรียนอยู่ปี 3 ผมไม่เคยได้ยินทุนนี้มาก่อนเลยครับเพื่อนๆก็จะรู้จักแต่ทุนบุคคลทั่วไปที่เปิดสอบเป็นระยะอยู่แล้ว แล้วผมทราบทุนนีจากไหนนะหรอ ? คุณแม่ผมไงละ พี่สาวเพื่อนผมเขาผ่านการสอบคัดเลือกชิงทุนนี้และก็คุณแม่ผมกับเพื่อนก็สนิทกันก็เลยเป็นการบอกปากต่อปากให้ผมไปลองสอบดู

    ด้วยความที่ว่าก็ช่วงนั้นก็ยังว่างอยู่พอดี เพราะว่า เป็นช่วงปิดเทอมย่อย ก็เลยอะๆ ลองสมัครหน่อยไม่เสียหายอะไรหรอก และนั้นก็เป็นการตัดสินใจที่จะเปลี่ยนผมไปตลอดกาล

    ด่านแรกสู่ทุน UIS: เกณฑ์การสมัครและภาพรวมกระบวนการ

    คุณสมบัติของผู้มีสิทธิ์สมัครสอบ

    1. ต้องไม่มีลักษณะต้องห้ามตาม มาตรา 36 แห่งพระราชบัญญติระเบียบข้าราชการพลเรือน พ.ศ 2551 เช่น ห้ามเป็นบุคคลล้มละลาย สามารถอ่านข้อมูลเพิ่มเติม คลิกที่นี้เพื่ออ่านเพิ่มเติมได้เลยครับ
    2. เป็นผู้ที่กำลังจะศึกษาในชั้นปีสุดท้ายของปริญญาตรี และหลักสูตรที่เรียนก็ต้องเข้าข่ายในสาขาวิชาตามที่กำหนดในคุณสมบัติเฉพาะแต่ละหน่วยทุน เช่น อย่างผมจะสมัครตำแหน่ง นักวิชาการคอมพิวเตอร์ก็ต้องเรียนอะไรซักอย่างที่ใกล้เคียง เช่น Software Engineering / Computer Science / AI / Computer Engineering เป็นต้น
    3. ในส่วนของ GPA อาจจะต้องเช็คอีกทีขึ้นอยู่กับสาขาที่เรียนอยู่อย่างของผมก็คือไม่ต่ำกว่า 2.75
    4. ต้องไม่มีการรับทุนอื่นที่มีข้อผูกพันในการชดใช้ทุน
    5. เป็นคนดี 🙂

    เอกสารและหลักฐานที่ต้องเตรียม

    1. ใบสมัครที่อัปโหลดรูปถ่ายจากระบบรับสมัครสอบ
    2. หนังสือรับรองสถานภาพการศึกษา
    3. สำเนาระเบียนแสดงผลการเรียน Transcript
    4. หนังสือรับรองความประพฤติ
    5. เอกสารอื่นๆ อย่างสำเนาเปลี่ยนชื่อ-สกุลเป็นต้น ถ้ามีผลคะแนนภาษาอังกฤษ ก็แนบมาด้วยก็ได้นะครับพวก IELTS TOEFL TOEIC
    6. แบบตรวจสอบเอกสารประกอบการสมัครสอบ และลงลายมือชื่อให้ครบถ้วน

    ระยะเวลาในแต่ละช่วง

    • ประกาศรับสมัคร มักจะเป็นช่วงปลายปี อย่างถ้าของปี 2568 ก็จะประกาศรับสมัคร ตอนธันวาคม 2567
    • สอบข้อเขียน ช่วงเดือนกุมภาพันธ์ ตามสถานที่สอบ ในกรุงเทพ หรือ ปริมณฑล
    • กิจกรรมการฝึกงาน 6 สัปดาห์ช่วง พฤษภาคม ถึง มิถุนายน
      • หมายเหตุ ถ้าน้องๆ คนไหนที่เรียนพวกวิศวฯ คอม มันจะต้องมีฝึกงานตอนปี 3 ใช่ไหมครับ แนะนำว่าให้ทำเรื่องกับ ก.พ. และหน่วยงานที่เกี่ยวข้องว่าเราขอฝึกงานรวบไปเลย จะได้ไม่เกิดการซ้ำซ้อนครับผม อย่างของผมก็ ขอฝึกรวบไปเลย 2 เดือนกว่า ครับ
    • กิจกรรมก่อนการประเมินความ เหมาะสมของบุคคลเพื่อรับทุน ช่วง กรกฎาคม
    • สัมภาษณ์ กรกฎาคม
    • ทำสัญญา ธันวาคม

    ภาพรวมโครงสร้างการคัดเลือก

    สำหรับการสอบนั้นจะแบ่งออกเป็นสองส่วนหลักๆได้แก่

    1. สอบข้อเขียน (ทุกคนสอบเหมือนกันหมด)
    2. สอบภาคปฏิบัติ หรือ การฝึกงาน และการเขียนเรียงความ
    3. ทดสอบ EQ และการอภิปรายกลุ่ม
    4. สอบสัมภาษณ์

    เจาะลึกด่านที่ 1: การสอบข้อเขียน

    การสอบข้อเขียนนั้นจะแบ่งออกเป็นข้อสอบสองชุดได้แก่

    1. วิชาภาษาอังกฤษ
    2.  วิชาความสามารถทั่วไปเชิงวิชาการ

    วิชาภาษาอังกฤษ
    ข้อสอบภาษาอังกฤษในมุมมองผม ผมรู้สึกว่าเหมือนกับสอบข้อสอบ CU-TEP โดยจะมีเนื้อหาข้อสอบดังนี้

    • Vocabulary and Expression
    • Error Recognition
    • Reading Comprehension

    วิชาความสามารถทั่วไปเชิงวิชาการ
    ข้อสอบก็จะคล้ายๆกับภาค ก แต่ว่าจะมีให้อ่านคิด วิเคราะห์ ตีความสรุปความ แก้พวกโจทย์แนวข้อมูลเชิงปริมาณ หรือ ลำดับนิดหน่อยให้ทำด้วยเช่นกัน

    รีวิวจากผู้เขียน และการเตรียมตัว


    ด้วยความที่ว่าร้างมือจากการทำข้อสอบไปนานพอสมควร (3 ปี ตั้งแต่สอบเข้ามหาวิทยาลัย) ผมก็เลยต้องไปคุ้ยๆข้อสอบเก่ามานั่งอ่านทบทวน บวกกับดูแนวข้อสอบ ก.พ. เก่าๆ และดูข้อสอบ CU-TEP เพราะตอนนั้นไม่แน่ใจเลยว่าตัวข้อสอบจะหน้าตาเป็นอย่างไรก็เลยเกร๊งหลายๆแนวเอาไว้

    ตอนไปสอบ ปี 2565 ตอนนั้นถ้าจำไม่ผิดน่าจะเป็นที่โรงเรียนสวนดุสิตครับและวันนั้นคือคนสอบคือเยอะมากกกก (ก ไก่ ล้านตัว) ด้วยความที่สถานที่สอบไม่ได้อยู่ติดกับรถไฟฟ้า ที่ผมโดยสารเป็นประจำ ผมกับแม่จึงเลือกที่จะเอารถไป แม้ว่าคนจะเยอะ แต่ด้านในก็พอมีที่จอดอยู่บ้างนะครับ แต่ถ้าไปสายมาก ๆก็อาจจะไม่เหลือเพราะฉะนั้นก็ระมัดระวังกันด้วยนะครับ

    เมื่อถึงเวลาเข้าห้องสอบกรรมการก็จะตรวจสอบใบสมัครที่เราปริ้นต์หลังจากจ่ายเงินไปแล้วมา แล้วก็ดูบัตรประชาชนก่อนให้เราเข้าไปนั่งประจำที่ ถ้าจำไม่ผิดตอนนั้นใช้ฝนด้วยดินสอ 2B ครับผม พอถึงเวลากรรมการก็แจกข้อสอบ

    สำหรับส่วนตัวแล้วผมจะมีหลักการทำข้อสอบก็คือ ถ้าอ่านโจทย์ข้อไหนแล้วใช้เวลานานเกินไปในการตอบจะข้ามไปก่อน เพราะข้อสอบนี้นอกจากจะต้องแข่งกับความยากง่ายแล้วยังต้องแข่งกับเวลาด้วย การที่เราติดกับข้อใดข้อหนึ่งมากเกินไปอาจส่งผลให้เราทำไม่ได้ครบทุกข้อครับ

    Vocabulary and Expression ก็จะประมาณว่ามีช่องว่างให้เติมคำอะไรลงไปถึงจะถูกต้อง หรือคำนี้แปลว่าอะไร Error Recognition ก็จะเป็นข้อสอบที่ให้เราหาว่าจากประโยคข้างต้นมีตรงไหนที่ Grammar ผิด, ใช้ Tense ไม่ถูกต้อง, หรือใช้รูปแบบคำไม่ถูกต้อง เช่น ควรใส่ Noun ดันไปใส่ Adjective และส่วนสุดท้ายก็คือ Reading Comprehension ที่จะให้บทความ มาอ่านและเราก็ต้องทำความเข้าใจ ก่อนที่จะไปตอบคำถามด้านล่างนั่นเอง

    ต่อไปก็วิชาความสามารถทั่วไปเชิงวิชาการ
    โดยรวมข้อสอบก็จะเป็นการวิเคราะห์และการใช้เหตุผล มีให้อ่านพารากราฟ ภาษาไทยยาวตั้งแต่ 1/4 ของหน้ากระดาษถึงครึ่งหน้ากระดาษแล้วก็ถามว่า ผู้เขียนรู้สึกอย่างไร อะไรที่เป็นเหตุและผลของเนื้อเรื่องเป็นต้น ครับ อาจจะมีพวกข้อสอบประเภท ลำดับง่ายๆให้ทำด้วยเช่นกัน

    สำหรับผมแล้ว ข้อสอบที่เป็นอ่านภาษาไทย ไม่ได้ยากมากถ้าเราค่อยๆอ่านและตีความโดยยึดตามเนื้อหาที่ให้อ่าน อย่าเผลอเอาความคิดตัวเองไปใส่นะครับ เพราะมันจะผิดให้ยึดตามสิ่งที่โจทย์ให้เท่านั้นนะครับ สำคัญมาก !!!

    ส่วนข้อสอบลำดับอนุกรม หรือพวกเปอร์เซ็นต์คือข้อสอบประมาณ มัธยม ซึ่งผมเชื่อว่าถ้าฝึกทำอยู่เป็นประจำก็ทำได้แน่นอนครับ

    ต่อไปก็จะเป็นเนื้อหาเกี่ยวกับการสอบภาคปฏิบัติหรือ การฝึกงานนะครับ ซึ่งการที่จะได้ไปฝึกงาน แปลว่าเราต้องผ่านการสอบข้อเขียนมาเรียบร้อยแล้วนั่นเองครับ

    เจาะลึกด่านที่ 2: การสอบภาคปฏิบัติ หรือการฝึกงาน และการเขียนเรียงความ

    กรมบังคับคดี ศูนย์เทคโนโลยีสารสนเทศและการสื่อสาร

    ถึงผมจะเรียกว่ามันคือการสอบภาคปฏิบัติก็เถอะแต่จริง ๆ แล้วก็คือการให้ไปลองฝึกงาน เพื่อดูว่าหน่วยงานที่ร้องขอตำแหน่งเราไปเนี่ย เขาทำงานแบบไหนกันมีเนื้องานอะไร แล้วประมาณไหนบ้าง

    อย่างของผม ตอนที่ไปฝึกงานก็ ไปฝึกงานที่กรมบังคับคดี ศูนย์เทคโนโลยีสารสนเทศและการสื่อสารเป็นระยะเวลา 6 สัปดาห์ แต่เนื่องจากว่าผมสมัครหน่วยทุนเดียวและก็ต้องฝึกงานของที่มหาลัยด้วย ผมก็เลยฝึกงานทั้งหมด 9 สัปดาห์แทนครับ เพื่อเก็บชั่วโมงของมหาวิทยาลัยด้วยเช่นกัน

    ตลอดระยะเวลา 6 สัปดาห์ (ที่เหลือขอไม่นับละกันครับ เพราะเป็นของฝึกงานที่คณะที่ผมเรียนแล้ว) ด้วยความว่าเป็นงานด้าน IT งานส่วนใหญ่ที่ผมเข้าไปเรียนรู้เนื้องานก็จะเป็นพวก Database & Web development, Network & Security, IT Support

    ตอนนั้นด้วยความว่า ไอ้เรามันก็คนร้อนวิชาอยู่พอตัว ก็เลยขอเขาลอง POC (Proof Of Concept) เกี่ยวกับการทำ Line Chatbot ด้วย Line Messaging API เพื่อใช้แจ้งรายการอาหารในแต่ละสัปดาห์ก่อนที่จะหมด 5 สัปดาห์พอดี

    Proof of Concept Line Messaging API

    ช่วงนั้นก็ถือว่าสนุกมาก เพราะเป็นงานที่ชอบ บวกกับมีความท้าทายหลายๆเรื่องที่จะพบได้แค่ในหน้างานราชการ ซึ่งแตกต่างกับการทำงานแบบเอกชน

    นอกจากนี้ผมแนะนำว่าเราก็ควรจะมีปฏิสัมพันธ์กับพี่ๆที่ทำงานไว้ด้วย เพราะอย่าลืมว่าหลังจากฝึกงานเสร็จแล้ว ถ้าเราเลือกที่นี้เพื่อใช้ทุนระยะที่ 1 เราก็จะต้องกลับมาเจอพวกเขาอีก การที่ทำความรู้จักไว้เนืองๆ ก็จะเป็นการดีกว่า อีกทั้งยังเป็นการแสดงถึงความสามารถในการปรับตัวเข้ากับผู้อื่นได้เช่นกัน

    เมื่อฝึกงานเสร็จแล้วก็จะได้รับการประเมินจากทางพี่เลี้ยงและให้เราเขียนเรียงความ ซึ่งก็จะเป็นการเขียนเรียงความเกี่ยวกับ “คุณได้อะไรจากการฝึกงาน” ซึ่งตอนนั้นที่เขียนก็เขียนไปเกือบ ๆ 1 หน้ากระดาษเลยครับ

    หลังจากนั้นพอผ่านมาซักระยะ ก.พ.ก็จะเรียกตัวเราให้ไปทำ การอภิปรายกลุ่มกับเพื่อนที่มีสิทธิ์ได้รับทุน ก.พ. และ สอบสัมภาษณ์ที่ สำนักงาน ก.พ. ในลำดับต่อไปครับ

    บรรยากาศการทำงาน

    เจาะลึกด่านที่ 3: การอภิปรายกลุ่ม

    หลังจาก ฝึกงานเสร็จแล้ว ก.พ. ก็จะนัดวันให้เราเข้าไปทำกิจกรรม อภิปรายกลุ่ม (Group Disccusion)โดยจะเป็นการที่เราและเพื่อน ๆ จะต้องช่วยกันทำงานกลุ่มและนำเสนอให้กับกรรมการ 2-3 ท่าน

    ซึ่งสำหรับกิจกรรมนี้เขาต้องการประเมินว่า ถ้าต้องทำงานร่วมกับ ผู้อื่นที่พึ่งจะเคยเจอกันครั้งแรก เราสามารถปรับตัวเข้ากับสังคม สิ่งแวดล้อม และการแก้ปัญหาเฉพาะหน้าได้ดีแค่ไหนครับ

    ส่วนตัวแนะนำว่า คอยหาช่องไฟพูดและผลัดกันพูดกับเพื่อน ๆ อย่าปล่อยให้ Dead Air จนนานเกินไป อาจจะต้องมีบางจังหวะที่เราต้องนำ และบางจังหวะที่เราต้องตามเพื่อนครับ ตอนรุ่นผมจะเป็นออกแบบโลโก้ UIS ครับ
    สำหรับ Session นี้ก็เหมือนกับการวัดว่าเรามีทักษะความเป็นผู้นำ และผู้ตาม เป็นคนแบบไหน สำหรับกรรมการด้วย

    เจาะลึกด่านที่ 4: การสอบสัมภาษณ์

    และก็มาถึงส่วนสุดท้าย การสอมสัมภาษณ์ ใน Session นี้เราจะถูกถาม และต้องตอบทั้งเป็นภาษาอังกฤษ และ ภาษาไทย โดยจะมีกรรมการ 5 ท่าน ได้แก่ นักจิตวิทยา นักวิชาการที่เกี่ยวข้องกับหน่วยงานที่เลือก (ของผมเป็น ผอ. ศูนย์เทคโนโลยีสารสนเทศและการสื่อสาร) เจ้าหน้าที่ของ ก.พ. และผู้เชี่ยวชาญด้านภาษาอังกฤษ

    โดยการสัมภาษณ์จะเริ่มจากให้เราแนะนำตัวเราก่อน ก็ขายตัวเองไปเลยครับ พรีเซ้นท์ตัวเองได้เลยเต็มที่ จะมีถามว่าครอบครัวเป็นไงบ้าง ทำไมถึงอยากรับทุนนี้ ถ้าสมมติว่ากลับมาจากเรียนต่อ ป.โทแล้ว จะทำอะไร อีก 10 ปีข้างหน้า เราเห็นตัวเองเป็นอย่างไร? ตอนฝึกงานได้อะไรบ้าง? อาจจะมีถามว่าหน่วยงานที่ไปฝึกงานเขาทำอะไรบ้าง? ถ้าไปเรียน ป.โท จะเรียนต่อด้านอะไร?

    สำหรับ Session นี้ใจเย็น ๆ ไม่ต้องเครียดครับค่อย ๆ ตอบไป มันอาจจะดูกดดัน เพราะว่ามัน 5 รุม 1 เนาะ 555 ในส่วนของคำถามภาษาอังกฤษก็พูดไปเลยครับ ถึงจะเป็นผู้เชี่ยวชาญภาษาอังกฤษ แต่สำหรับ session นี้เขาต้องการให้เรากล้าสื่อสารเป็นหลัก เพราะฉะนั้นคิดอะไรได้ก็ตอบไปเลยครับ อย่ากลัว

    ก้าวสุดท้าย: การทำสัญญา

    หากเราผ่านการสัมภาษณ์และประกาศผลว่าติด ทาง ก.พ. ก็จะชี้แจงและให้เราดูสัญญาเพื่อเตรียมทำสัญญารับทุนระยะที่ 1 และ เมื่อทำสัญญาแล้ว ทาง ก.พ. ก็จะ ให้ทุนรัฐบาลเพื่อศึกษาในชั้นปีสุดท้ายจนสำเร็จการศึกษาระดับปริญญาตรี ตามโครงสร้างหลักสูตร ทั้งนี้ ต้องใช้ระยะเวลาศึกษาไม่เกิน 1 ปี

    บทสรุป Part 1 และบทถัดไปของ “การเดินทางกับทุน UIS”

    จบไปแล้วนะครับสำหรับพาร์ทที่ 1เนื้อหาในส่วนนี้ก็จะพูดถึงแค่การสมัครและการสอบเท่านั้น ถ้าชอบก็อย่าลืมกดไลก์ และติดตามรอฟังบทถัดไปได้เลยครับ สำหรับบทหน้าผมจะมารีวิวว่าตลอดระยะเวลาเกือบ 2 ปีที่ทำงานราชการในฐานะนักเรียนทุน UIS เป็นอย่างไร แล้วเจอกันครับ

    References

    1. รายละเอียดเกี่ยวกับทุน
    2. รายชื่อตำแหน่งที่เปิดรับ
    3. กำหนดการประจำปี 2568

  • Main Series: Part 1 ทำความเข้าใจหลักการ Linear Regressionใน Machine Learning

    Main Series: Part 1 ทำความเข้าใจหลักการ Linear Regressionใน Machine Learning

    เป็นเวลาหลายเดือนที่ผมเรียนจบจาก Data Science Bootcamp กับ Ad’ Toy และได้เริ่มเขียน Posts หลายๆอัน หลังจากมัวไต่แรงก์ TFT Set 14 ผมว่ามันถึงเวลาอันสมควรแล้วที่จะเขียน Post เพื่อทบทวนและแชร์ไอเดียเกี่ยวกับ Classical Machine Learning ที่ผมได้เรียนในคอร์สกับ Ad’ Toy

    แต่ครั่นจะให้ผมแค่อธิบายสิ่งที่ได้เรียนมาในคอร์สก็ดูจะเบสิคเกินไป ผมจะพาทุกท่านไปดูการทำและวิเคราะห์ไอเดียผ่าน data ใน kaggle แทนเพื่อให้ทุกท่านได้เห็นภาพมากขึ้น

    เนื้อหาส่วนนี้จะแบ่งออกเป็น 4 พาร์ทเพื่อไม่ให้ยาวเกินไปนะครับ

    โดยในส่วนของ Main Series นั้นเราจะโฟกัสไปที่การแตะๆ Walkthrough เนื้อหาภาพรวมกันเสียก่อน แล้วเดี๋ยวเราค่อยมาเจาะลึกกันสำหรับแต่ละ Algorithms ใน Series ถัด

    Table of Content


    Introduction: Why Classical Machine Learning Matters ?

    ในยุคที่ปัญญาประดิษฐ์ ( AI ) กลายเป็นส่วนหนึ่งของการดำรงชีวิต ทั้งในด้านการเพิ่มประสิทธิภาพและคุณภาพของงาน ไปจนถึงการทดแทนแรงงานมนุษย์ในหลายภาคส่วน

    ความเข้าใจในรากฐานของเทคโนโลยีเหล่านี้ โดยเฉพาะ Machine Learning (ML) จึงเป็นสิ่งสำคัญอย่างมาก

    การเรียนรู้ Classical Machine Learning ไม่เพียงช่วยให้เรามองเห็นเบื้องหลังการทำงานของระบบอัจฉริยะ แต่ยังเป็นจุดเริ่มต้นที่แข็งแกร่งในการต่อยอดสู่เทคโนโลยีสมัยใหม่อย่าง Deep Learning และ Generative AI เช่นกัน

    แล้ว Machine Learning คืออะไร? โดยพื้นฐานแล้ว Machine Learning คือศาสตร์แขนงหนึ่งของวิทยาการคอมพิวเตอร์ที่เกี่ยวข้องกับการทำให้คอมพิวเตอร์สามารถเรียนรู้จากข้อมูลได้เอง

    โดยไม่จำเป็นต้องถูกโปรแกรมให้ทำงานแบบชัดเจนในทุกขั้นตอน เมื่อทำการสอนเสร็จแล้ว เราก็จะได้ Model ในรูปแบบสมการ หรือไม่เป็นรูปแบบสมการที่ใช้ในการทำนาย การจัดกลุ่มและอื่นๆได้อีกเช่นกัน

    Machine Learning

    สำหรับ Machine Learning แล้วก็จะแบ่งเป็น Classic และ Modern โดยเราจะโฟกัสไปที่ Classic กันก่อน

    สำหรับ Classical Machine Learning นั้นสามารถแบ่งเป็น 2 กลุ่มใหญ่ๆได้แก่

    1. Supervised Learning 
    2. Unsupervised Learning
    3. Reinforcement Learning

    Supervised Learning 

    เป็นวิธีการสอนรูปแบบหนึ่งที่เราจะให้คอมพิวเตอร์เรียนรู้จากข้อมูลที่มีหัวตาราง (labeled data) โดยประกอบไปด้วย 2 รูปแบบได้แก่

    1. Regression
    2. Classification

    Unsupervised Learning

    อีกหนึ่งวิธีการสอนที่จะให้ data แบบไม่มี metadata เพื่อหารูปแบบ หรือสรุปข้อมูลออกมา โดยรุปแบบการเรียนรู้นี้จะนิยมใช้เทคนิค Clustering และ Principal Component Analysis หรือ PCA 

    Reinforcement Learning

    รุปแบการสอนที่เน้นให้ Agent หรือตัวโมเดลสำรวจ สภาพแวดล้อม environment และเลือกกระทำการใดๆต่าง Action โดยที่การกระทำเหล่านั้นจะมีผลลัพธ์ตามมาไม่ว่าจะเป็ฯ รางวัล Reward หรือ บทลงโทษ Penalty

    การสอนรูปแบบนี้มีวัตถุประสงค์เพื่อให้ Agent นั้น ได้รับรางวัลมากที่สุด หรือ ได้รับบทลงโทษน้อยที่สุด โดยโมเดลที่มีชื่อเสียงผ่านการสอนด้วยวิธีนี้ก็จะมี AlphaGo เป็นตัวอย่าง

    ในบทความนี้ผมจะพูดถึงแค่ 1 ใน รูปแบบของ Supervised Learning นั้นคือการทำ Linear Regression เสียก่อน เพื่อไม่ให้ยาวจนเกินไปนะครับ เกริ่นกันมามากพอละ ป่ะลุยกั๊นนนนน

    Linear Regression

    ก่อนที่เราจะไปพูดถึง Linear Regression นั้นเราควรเข้าใจกับคำว่า สหสัมพันธ์ (Correlation) เสียก่อน  

    Correlation เป็นการวัดความสัมพันธ์เชิงเส้นตรงระหว่างตัวแปรสองตัว โดยจะมีค่าอยู่ระหว่าง [-1,1] เท่านั้น

    Correlation บอกได้แค่ตัวแปรสองตัวนี้มีความสัมพันธ์กันระดับไหน วัดออกมาเป็นตัวเลขระหว่าง [-1, +1] เครื่องหมายบวกลบบอกทิศทางความสัมพันธ์ของตัวแปร ถ้าไม่มีความสัมพันธ์เลย correlation จะเท่ากับศูนย์ (หรือประมาณ +/- 0.1)

    Linear Regression เป็นสมการ หรือโมเดลรูปแบบนึงที่ใช้ประเมินคุณภาพของความสัมพันธ์ (relationship) โดยมักจะมาในรูปแบบ สมการเส้นต้น หรือ สมการหลายตัวแปร

    y = mx + b
    

    หรือ

    y = b0 + b1*x1 + b2*x2 + b3*x3 + .. + bk*xk  
    

    โดย algorithm นี้จะเป็น Alogirthm ที่เหมาะสมก็ต่อเมื่อง error ที่เกิดขึ้นรอบๆ เส้นตรงดังกล่าวต่ำนั้นเอง

    Linear Regression เหมือนเป็น add-on ต่อยอดจากการหาค่า Correlation ว่าถ้าตัวแปร x เปลี่ยนเท่านี้ตัวแปร y จะ เปลี่ยนไปเท่าไหร่นั้นเอง

    ตัว m ในสมการเราจะเรียกว่า Regression Coefficient และ b คือ Interception point

    Dataset & How We Preprocess Data

    สำหรับ ตัวอย่างนี้ผมจะใช้ dataset ที่ชื่อว่า AirQualityUCI นะครับสามารถคลิกลิ้งค์ตรงนี้เพื่อเข้าไปหาต้นทางได้เลย

    ก่อนโหลด dataset เราก็ต้องทำความเข้าใจแต่ละ Columns ก่อนว่าคืออะไรกันบ้างครับ

    FeatureDescription
    Dateวันที่วัดค่า
    Timeเวลาที่วัดค่า
    CO(GT)ความเข้มข้นของ Carbon Monoxide ในหน่วย (µg/m³).
    PT08.S1(CO)ค่าที่ได้จากการวัด Carbon Monoxide จากเครื่องวัด
    NMHC(GT)ความเข้มข้นของ non-methane hydrocarbons (NMHC) (µg/m³).
    C6H6(GT)ความเข้มข้นของ benzene (C6H6) in the air (µg/m³).
    PT08.S2(NMHC)ค่าที่ได้จากการวัด non-methane hydrocarbons (NMHC) จากเครื่องวัด
    NOx(GT)ความเข้มข้นของ nitrogen oxides (NOx) in the air (µg/m³).
    PT08.S3(NOx)ค่าที่ได้จากการวัด NOx จากเครื่องวัด
    NO2(GT)ความเข้มข้นของ nitrogen dioxide (NO2) in the air (µg/m³).
    df=pd.read_csv(filepath_or_buffer='AirQualityUCI.csv', sep=',', decimal=',', header=0)
    

    เนื่องจากไฟล์ต้นทางเป็นไฟล์ .csv เพราะฉะนั้นเราก็เรียกใช้ method .read_csv จาก library pandas เพื่อใช้อ่านโดยกำหนค่าตาม filepath (ให้ง่ายก็ลากไฟล์ที่จะอ่านมาไว้โฟลเดอร์เดียวกัน) และกำหนด separator (อักขระทีใช้ในการแบ่งข้อมูลใน csv ) และ decimal (อักขระที่ใช้แทนจุดทศนิยม) โดยกำหนดให้ header อยู่ที่แถว 0

    เมื่ออ่านค่าได้แล้วเราก็มาดูข้อมูลคร่าวๆกันเถอะ

    ⁠df.head() และ df.describe()

    df.head()
    df.describe()

    จากตัวอย่างหัวตารางจะเห็นได้ว่าข้อมูลนี้จะเกี่ยวกับการวัดคุณภาพอากาศที่เก็บได้เป็นระยะเวลา 1 ปี 1 เดือนนะครับ โดยมีวัตถุประสงค์เพื่อใช้ในการทำ model สำหรับการทำนายและวิเคราะห์ข้อมูลภายในงานด้าน วิทยาศาสตร์สิ่งแวดล้อมและสุขภาพอนามัย

    ในข้อมูลจะเห็นว่ามี 2 Columns ที่ไม่มีชื่อใช่ไหมครับ เพราะฉะนั้นเราก็ต้อง Drop 2 Columns นั้นออกด้วยคำสั่งด้านล่าง

    df = df.loc[:, ~df.columns.str.contains("^Unnamed")]
    

    คำสั่ง loc ใน pandas หมายถึงการเข้าถึงข้อมูลใน DataFrame โดยอาศัยการกำหนด rows หรือ columns หรือจะใช้ค่า boolean arrays ก็ได้เช่นกัน

    จากคำอธิบาย Dataset ใน Kaggle ได้บอกว่าบางค่าในแต่ละเดือนก็ไม่สามารถบันทึกได้เขาก็เลยใส่ -200 มาเพราะฉะนั้นเราก็ต้องลบออกเช่นกัน

    df = df.replace(-200,np.nan).dropna()
    

    ก็คือผมเปลี่ยน -200 ทั้งหมดให้เป็น np.nan ก่อนแล้วก็ค่อย drop NaN ทิ้ง

    โอเคเราได้ทำการ clean data เรียบร้อยแล้ว ในขั้นตอนถัดไปเราก็สามาถนำข้อมูลนี้ไปใช้ train ได้แล้วครับ

    Simple Linear Regression

    จากข้อมูลผมจะทำการเริ่มจากใช้ ตัวแปรตัวเดียวเพื่อหาความสัมพันธ์ของข้อมูลก่อน ในกรณีนี้จะเลือก y เป็น NMHC และ x เป็น C6H6(GT)

    y = np.array(df['NMHC(GT)']).reshape(-1,1)
    

    และ

    X = np.array(df['C6H6(GT)']).reshape(-1,1)
    

    Split Data

    เมื่อได้ X และ y เป็นที่เรียบร้อยแล้วเราก็นำข้อมูลดังกล่าวมา split โดยผลแบ่งเป็น ใช้ฝึก 80% และ ใช้ทดสอบ 20% และสาเหตุที่ใส่ค่า random_state = 42 เพราะว่าจะให้ได้ผลลัพธ์การสุ่มแบ่งข้อมูลเหมือนเดิมในทุกๆครั้ง

    X_trained, X_test, y_trained, y_test = train_test_split(X, y,train_size=0.8, test_size=0.2, random_state=42)

    Train and Validate

    หลังจากนั้นเราก็จะนำ data ที่แบ่งมา train กัน

    lnr = LinearRegression()
    lnr.fit(X_trained, y_trained)
    y_pred = lnr.predict(X_test)
    
    1. สร้างฟังก์ชั่น linear regression ด้วยฟังก์ชั่น LinearRegression
    2. นำ data X_trained และ y_trained มา train
    3. ทำนายค่า X_test ด้วย predict()

    จากนั้นก็ทำการหาค่า metrics ต่างๆ

    print("Mean Absolute Error Trained ", mean_absolute_error(y_trained, y_trained_pred))
    print("Mean Absolute Error Test ", mean_absolute_error(y_test, y_pred))
    

    จะได้ผลลัพธ์ดังนี้

    # Mean Absolute Error Trained  61.831639475521364
    # Mean Absolute Error Test  60.9002976731785

    หน่วยที่ใช้วัดจะเป็นหน่วย µg/m³ ไมโครกรัม ต่อ ลูกบาศก์เมตร หากดูจากค่า trained MAE และ test MAE นั้นถือว่ามีค่าใกล้กันแต่แปลว่า model เราค่อนข้าง generalised

    อย่างไรก็ตาม MAE เป็นค่าที่ยิ่งใกล้ 0 จะยิ่งให้ผลลัพธ์ที่ดีเพราะแปลว่าเราอ่านค่าคลาดเคลื่อนน้อย แต่นี้ MAE ตั้ง 60 แปลว่า simple linear regression model ไม่ตอบโจทย์กับ dataset นี้

    เพราะฉะนั้นเรามาลองหาค่าใหม่แต่ใช้เป็น multi-varaible linear regression กันอีกรอบ

    Multi-variable Linear Regression

      y = np.array(df['NMHC(GT)']).reshape(-1,1)
        df_pollutant = df[['PT08.S2(NMHC)', 'C6H6(GT)','T', 'RH', 'AH', 'NO2(GT)', 'NOx(GT)', 'CO(GT)']]
        X = np.array(df_pollutant).reshape(-1, len(df_pollutant.columns))
        X_trained, X_test, y_trained, y_test = train_test_split(X, y,train_size=0.8, test_size=0.2, random_state=42)
        lnr = LinearRegression()
        lnr.fit(X_trained, y_trained)
        y_pred = lnr.predict(X_test)
        y_trained_pred = lnr.predict(X_trained)
        print("Mean Absolute Error Trained ", mean_absolute_error(y_trained, y_trained_pred))
        print("Mean Absolute Error Test ", mean_absolute_error(y_test, y_pred))
    

    เราก็ได้ผลลัพธ์ดังนี้

    # Mean Absolute Error Trained  59.31405073871236
    # Mean Absolute Error Test  57.858497022746086

    สังเกตว่า แม้เราจะเพิ่มตัวแปรเข้าไปเป็นจำนวนมากแต่ค่า MAE กับลดลงเพียง 2-3 µg/m³ เท่านั้นเอง ซึ่งก็ยังคลาดเคลื่อนเยอะมาก

    ลองจินตนาการว่าค่าที่แท้จริงได้ 7 µg/m³ แต่ดันอ่านได้ 64-66 µg/m³ ดูสิครับทำนายกันผิดผลาดแน่นอน

    No Free Lunch

    จากตัวอย่างข้างต้นทำให้เราได้ข้อสรุปว่าการที่เราจะ train model อะไรซักอย่างนั้นจะต้องลองหลายๆ model เพื่อหา model ที่ดีที่สุดทั้งในเรื่องของเวลาและค่าใช้จ่าย

    ซึ่งนี้เป็นไปตามหลักการที่ว่า ไม่มีโมเดลไหนเก่งที่สุด และสามารถตอบโจทย์ได้ทุกปัญหา หรือ No Free Lunch บางทีอาจจะมีโมเดลอื่นอย่าง Decision Tree, Random Forest และ อื่นๆ ที่จะสามารถนำ data นี้ไปทำนายได้อย่างมีประสิทธิภาพมากขึ้นไปอีกได้เช่นกัน

    Conclusion & Evaluation

    สรุป dataset นี้ไม่เหมาะที่จะใช้ Linear Regression model ในการทำนายค่าเนื่องจากว่ามีผลลัพธ์ที่ไม่น่าพึ่งพอใจและเสี่ยงตอนความคลาดเคลื่อนสูง

    แม้ว่าจะมีกาารเพิ่มตัวแปรเข้าไปแล้วก็ตาม ทั้งนี้ dataset นี้อาจเหมาะกับโมเดลอื่นๆมากกว่า

    จากที่ ผมลองดูมา dataset ใน kaggle ที่ดูแล้วน่าจะใช้ Linear Regression ได้ก็น่าจะเป็น California Housing Price ครับเพื่อนๆก็สามารถลอง ขั้นตอน cleansing data (preprocessing) บวกกับ การสร้าง Linear Regression Model ที่ผมเขียนไปลองดูกันได้ ลองแล้วได้อย่างไรก็อย่าลืมมาแชร์กันนะครับ

    Scatter Plot ของ y_pred, X_test

    แล้วเพื่อนๆ เคยเจอโปรจคไหนที่มีปัญหา No Free Lunch อย่างนี้ไหมครับ

    Sourcecode

    https://gist.github.com/patrawi/4af831586d73e492362cb2a19148f79d.js

    References

    # ทำความรู้จัก “Linear Regression” Algorithm ที่คนทำ Machine Learning ยังไงก็ต้องได้ใช้!
    # ทำนายราคาบ้าน Boston ด้วย Linear Regression

  • ใช้ Google AI Studio แปลง PDF เป็น CSV

    ใช้ Google AI Studio แปลง PDF เป็น CSV


    ตั้งแต่อดีตจนถึงปัจจุบัน นักวิทยาศาสตร์ข้อมูล หรือ Data Scienctist ล้วนแล้วแต่ต้องเคยเจอปัญหาที่ว่าข้อมูลนั้นอยู่ในรูปกายภาพ(physical) แทนที่จะเป็นลักษณะดิจิตอล (digital) 

    ซึ่งข้อมูลเหล่านี้สร้างความรำคาญให้แก่พวกเขาเป็นอย่างมาก ในอดีต ก่อนที่จะมีนวัตกรรมอย่าง OCR (Optical Character Recognition) ที่เกิดจากการประยุกต์ใช้ Machine Learning เหล่า Data Scientist ต้องรับมือกับข้อมูลกายภาพด้วยการคีย์ข้อมูลด้วยมือ ไม่ว่าจะผ่านหน้าจอ Console, Web Application หรือ GUI ต่างๆ

    วิธีดังกล่าวนั้นมีโอกาสเกิด Human Error เป็นอย่างสูง ลองจินตนาการดูสิ คุณกำลังนั่งกรอกข้อมูลเหล่านี้ประมาณ ตี 2-3 อดหลับอดนอน นั่งกรอกตารางข้อมูลเหล่านี้มากกว่า 100 หน้ามาแล้ว 3 วัน 

    คุณที่กำลังขมักเขม้นกรอกข้อมูล

    ซึ่งมันแทบจะเป็นไปไม่ได้เลยที่คุณจะกรอกโดยไม่ผิด และเมื่อกรอกเสร็จคุณก็ต้องมาเสียเวลานั่งแก้ข้อมูลเหล่านี้ เสียทั้งเวลา เสียทั้งค่าใช้จ่าย และอื่นๆที่จะตามมาอีกมากมาย

    ความยุ่งยากในการนำเข้าข้อมูลนี้ ทำให้หลายคนเลือกที่จะละทิ้งข้อมูลไปอย่างน่าเสียดาย เพราะมองว่ายากเกินกว่าจะนำไปใช้ประโยชน์ได้ สุดท้ายข้อมูลอันมีค่าเหล่านี้ก็กลายเป็นเพียง ‘ขยะดิจิทัล’ ที่ไม่มีใครสามารถนำไปประยุกต์ใช้ได้เลย

    แล้วถ้าเกิดว่าวันนึง มันดันมีเทคโนโลยีที่สามารถแก้ปัญหาตรงนี้ได้ละ เทคโนโลยีที่จะช่วยให้เราสแกนเอกสารและทำออกมาเป็นไฟล์พร้อมนำเข้าข้อมูล บนโปรแกรต่างๆไม่ว่าจะเป็น Spreadsheet, Excel หรือ โปรแกรมจากการเขียนโค้ดอย่าง python หรือ R คุณลองคิดดูสิว่าขยะเหล่านี้จะมีค่าแค่ไหน ? เพราะฉะนั้น วันนี้ผมจะพาทุกท่านมารู้จักกับ AI จากทาง Google อย่าง Gemini Flash 2.5 ที่เราสามารถทดสอบ บนGoogle AI Studio ซึ่งจะเข้ามาช่วยแก้ปัญหาและอุด Pain Point นี้กันครับ

    ในช่วงแรกที่เหล่า Data Scientists ต้องแก้ปัญหานี้ พวกเขาก็พยายามค้นหาวิธีการต่างๆ อาทิเช่น การ Scan ข้อมูลเหล่านั้นเป็น PDF Copy/Paste บ้างละ ใช้โปรแกรม online สำหรับแปลง PDF ไปเป็น CSV บ้างละ ไปจนถึงขั้นยอมเสียเงินจำนวนมากเพื่อซื้อโปรแกรมมาปิดจุดอ่อนนี้ 

    วิธีเหล่านั้นล้วนสามารถแก้ปัญหาขั้นเบื้องต้นได้แต่ก็มีจุดอ่อนในตัวเช่นกัน เช่นการ Copy/Paste นั้นในระยะยาวนั้นจะไม่เป็นผลดีต่อเวลาเป็นอย่างมาก การใช้โปรแกรมออนไลน์ก็ดูเป็นวิธีที่เวิร์ค แต่ถ้าเกิดมีไฟล์เป็นจำนวนมากก็คงจะไม่ไหว และการใช้ซอฟแวร์สำเร็จรุปนั้นก็อาจจะให้ผลลัพธ์ที่ไม่ดีหากข้อมูลของเรานั้นซับซ้อน

    ด้วยการมาถึงของยุคที่ Generative AI เป็นที่รู้จักแพร่หลาย บริษัท Google ก็ไม่น้อยหน้าปล่อย แพลทฟอร์ม ออกมาให้ผู้ใช้งานอย่างเราๆได้ทดลองใช้ฟรี โดยเราสามารถเข้าไปลองเล่น Model ต่างๆของทาง Google ผ่านทาง Google AI Studio 

    ทำไมต้อง Google AI Studio ทั้งๆ ที่เจ้าอื่นก็มีแพลตฟอร์มทดลองให้ใช้เหมือนกัน? คำตอบง่ายๆ คือ ‘เพราะมันฟรี’ ผู้ใช้งาน Gemini เวอร์ชั่นปกติอาจเข้าถึงได้แค่ Gemini Flash แต่ใน Google AI Studio คุณสามารถใช้งาน Gemini Pro ได้ฟรีไม่จำกัด นี่คือข้อได้เปรียบสำคัญที่ไม่อาจมองข้าม

    แถมเรายังสามารถปรับแต่งค่าต่างๆเพื่อให้ AI ตอบคำถามตามความต้องการของเราได้ เช่น ตั้งค่า Temperature ต่ำ หรือ สูง เพื่อกำหนดความสร้างสรรค์ของ AI กำหนด output length ว่าจะให้ตอบได้ไม่เกินครั้งละเท่าไหร่ ไปจนถึงการกำหนด Top P เพื่อควบคุมความหลากหลายของคำตอบ โดยให้ AI เลือกจากกลุ่มคำที่มีความน่าจะเป็นสูงสุด

    อีกหนึ่งสิ่งที่ น่าประทับใจมากๆของ Google AI Studio ก็คือจำนวน Context window ที่ให้มาอย่างจุใจถึง 1 ล้าน ส่งผลให้การคุยของผู้ใช้งานนั้นราบรื่นอย่างไร้ปัญหา และด้วยเหตุนี้ Google AI Studio จึงเหมาะมากที่เราจะใช้เพื่อ POC concept ของเราสำหรับประยุกต์ใช้ในอนาคตนั้นเอง

    สำหรับจุดประสงค์ในการทำครั้งนี้ก็คือการที่เราสามารถอ่านไฟล์สแกน PDF ได้เป็นจำนวนมากเพื่อที่จะดึงข้อมูลจากกระดาษออกมาและ insert เข้าฐานข้อมูล

    ด้วยเหตุนี้ เพื่อให้ได้มาซึ่ง tools ที่ตอบโจทย์เรามากที่สุด จึงมีความจำเป็นว่าเราต้องทดลองใช้ Model ที่กูเกิ้ลมีนั้นมาทดสอบเสียก่อน โดยในเคสนี้เราจะทดสอบด้วยโมเดล 2.5 Flash และ 2.5 Pro

    ความแตกต่างระหว่าง Pro Model & Flash Model 

    Pro Model – เป็น โมเดลที่ถูกสร้างมาสำหรับการคิดอย่างเป็นตรรกะ (reasoning), การโค้ดดิ้ง (Coding) และความเข้าใจในหลากหลายมิติ ( Multimodal understanding ) เพื่อใช้ในการคิดวิเคราะห์ปัญหาที่ซับซ้อน ส่งผลให้มีค่า Latency ที่สูงเพราะ Model จำเป็นต้องคิดไปทีละ Step ก่อนที่จะได้รับคำตอบ

    Flash Model – สำหรับ Flash Model นั้นถูกออกแบบมาให้ใช้กับงานประมวลผลเป็นจำนวนมากเช่น ไฟล์ PDF หลายๆไฟล์ งานที่ต้องการ latency ตำ่และรับ input ได้เยอะ, หรือ agentic use cases

    จากข้อมูลข้างต้นเราจึงควรเลือกใช้ Flash Model เพราะด้วยความที่ Latency ต่ำ + กับเหมาะทำงานซ้ำๆ ถือว่าตอบโจทย์ของเราเป็นอย่างมาก

    หลังจากที่เลือก Model เรียบร้อยแล้วเรามาดูขั้นตอนในการทำงานก่อนดีกว่า

    Flowchart

    จาก Flowchart ข้างต้นในขั้นตอนแรกนั้นเราต้องสแกนเอกสารก่อนและข้างล่างนี้ก็คือเอกสารที่เราต้องการอ่านนั้นเอง

    ใน ช่วง Proof cf Concept นั้น เราไม่จำเป็นที่จะต้องใช้ API_KEY โดยเราสามารถ Log in Gmail และใช้งานบน แพลทฟอร์ม Google AI Studio ได้เลย

    ⁠จากนั้นทำการอัพโหลดรูปภาพเข้าไป และพิมพ์ System Instruction ดังนี้

    จากนั้นทำการกด Run และรอผลัพธ์

    จะเห็นได้ว่าเราได้ข้อมูลในรูปแบบ CSV พร้อมนำไปใช้ในขั้นตอนต่อไปได้ทันที! แต่หากเราไม่ได้กำหนด System Instruction หรือ Prompt ที่ชัดเจนและรัดกุมแล้วละก็ เราอาจได้ข้อมูลในรูปแบบที่ไม่ใช่ CSV หรือได้ Format ที่ไม่น่าพึงพอใจ เพราะฉะนั้น ‘หลักการ Prompt Engineering’ จึงสำคัญอย่างยิ่งมากในการดึงศักยภาพของ AI ออกมาใช้ได้อย่างเต็มที่.

    สิ่งที่ใช้ในการคำนวณและวิเคราะห์เอกสาร PDF เหล่านี้ แท้จริงแล้วก็คือ โมเดลภาษาขนาดใหญ่ (LLM) อย่าง Gemini ที่ทำหน้าที่หลักในการแปลงข้อมูลจากไฟล์ให้มาเป็น CSV ตาม Prompt ที่เรากำหนด

    อย่างไรก็ตาม กว่าที่จะมาเป็น CSV อย่างที่เราเห็นนั้น ตัว Google AI Studio ก็ต้องแปลงไฟล์แนบในรูป PDF ให้ AI ‘เข้าใจ’ ได้ก่อน

    โดยในขั้นแรก ระบบจะทำการตรวจสอบว่า Input ที่ส่งมาเป็นไฟล์แนบ (เช่น PDF หรือรูปภาพ) หรือไม่ ถ้าใช่ ระบบจะส่งไฟล์นั้นไปประมวลผลด้วย OCR (Optical Character Recognition) ก่อน กระบวนการ OCR นี้จะแปลงภาพของตัวอักษรใน PDF ให้กลายเป็น ข้อความดิจิทัล (Text) ที่คอมพิวเตอร์อ่านได้

    จากนั้น ข้อความดิจิทัลที่ได้จะถูกนำเข้าสู่กระบวนการ Tokenization ซึ่งเป็นการแบ่งข้อความยาวๆ ออกเป็นหน่วยย่อยๆ ที่เรียกว่า ‘โทเคน (Tokens)’ (เช่น คำ, ส่วนของคำ, หรือเครื่องหมายวรรคตอน)

    ต่อมา โทเคนเหล่านี้จะถูกแปลงไปสู่รูปแบบที่ AI สามารถประมวลผลได้ ซึ่งก็คือ ‘Embedding’ ครับ พูดง่ายๆ คือ Embedding คือการแปลงโทเคนแต่ละหน่วยให้เป็นตัวเลขเวกเตอร์ ซึ่งเป็นชุดตัวเลขที่แสดงถึงความหมายและความสัมพันธ์ของโทเคนนั้นๆ ในเชิงคณิตศาสตร์ ทำให้ AI สามารถเข้าใจ และ วัดความใกล้เคียง ของความหมายระหว่างคำต่างๆ ได้

    หลังจากนั้น ข้อมูลที่เป็นตัวเลขเวกเตอร์ (Embeddings) เหล่านี้จะถูกส่งเข้าสู่ โมเดล AI ซึ่งโดยทั่วไป จะประกอบด้วยส่วนหลักๆ คือ Encoder และ Decoder

    • Encoder ทำหน้าที่ประมวลผล Input (ในที่นี้คือ Embeddings ของข้อความจาก PDF) เพื่อสร้างความเข้าใจบริบทและความหมายทั้งหมดของข้อความนั้นๆ
    • Decoder จะใช้ความเข้าใจที่ได้จาก Encoder และคำสั่งจาก Prompt ของเรา (เช่น แปลงเป็น CSV) เพื่อสร้าง Output ออกมาเป็นลำดับของโทเคน ซึ่งต่อมาจะถูกแปลงกลับเป็นข้อความในรูปแบบที่เราต้องการหรือข้อความที่มนุษย์อ่านได้ (เช่น CSV) นั่นเอง

    ทุกสิ่งทุกอย่างข้างต้นนั้นล้วนเกิดจากข้อมูลมหาศาลที่โมเดลได้รับการเรียนรู้มาแล้วล่วงหน้า ผสมผสานกับวิธีทางคณิตศาสตร์ที่ซับซ้อน ส่งผลให้ AI สามารถวิเคราะห์และคาดเดาได้อย่างแม่นยำว่าข้อมูลที่อยู่บน PDF เหล่านั้นคืออะไร และควรจะจัดเรียงออกมาในรูปแบบใด

    พูดกันมาขนาดนี้แล้ว ละ OCR คืออะไร? OCR (Optical Character Recognition) คือหนึ่งในกระบวนการสำคัญของ Machine Learning ที่ทำหน้าที่แปลง รูปภาพของตัวอักษร (เช่น ตัวอักษรบนไฟล์ PDF ที่มาจากการสแกน) ให้กลายเป็น ข้อความดิจิทัล ที่คอมพิวเตอร์สามารถอ่านและประมวลผลได้ โดยมันจะวิเคราะห์แพทเทิร์นของพิกเซลในรูปภาพเพื่อระบุว่าเป็นตัวอักษรใด แล้วจึงแปลงให้เป็นข้อความที่แก้ไขหรือค้นหาได้

    หลังจากนั้นก็รับค่านั้นและทำการแปลงกับออกมาเป็นรูปด้วย library ต่างๆ เช่น opencv เป็นต้น 

    หลักจากที่ได้อธิบายว่า AI นั้นมันน่าอัศจรรย์มากขนาดไหน เพราะหลังจากนี้เราไม่จำเป็นต้องหามรุ่งหามค่ำนั่งกรอกข้อมูลกันเป็นพันลวันแล้ว เรายังสามารถต่อยอดทำให้มัันอัตโนมัติได้ยิ่งขึ้นไปอีกด้วยนะAIM

    หากเราเข้าไปที่ตรงหน้า chat ที่เราคุยกับ gemini ใน google ai studio

    เราสามารถเปลี่ยน chat ที่เราคุยกับ gemini ให้เป็น code ที่ใช้รันผ่าน Terminal, หน้าเว็บไซต์ หรือจะเป็นยิงผ่าน Postman ก็ได้เหมือนกัน

    แต่ว่าการที่จะทำให้โค้ดนี้สมบูรณ์ได้นั้นเราต้องใช้ GEMINI_API_KEY ซึ่งถือเป็นอีกหนึ่งปัจจัยสำคัญเลย โดยการที่จะหามาได้นั้นเราก็แค่กดปุ่มด้านบนที่เขียนว่า Get API Key

    หลังจากนั้นให้ทำการกด + Create API Key google ai studio จะทำการค้นหา Google Cloud Project

    หากเพื่อนๆ พึ่งเคยสร้างโปรแกรมนี้ครั้งแรก เราแนะนำว่าให้เข้าไปสมัครและเปิดใช้งานในหน้า Google Cloud Project ก่อน  https://cloud.google.com/?hl=en  และเลือกไปที่ Console หากเราได้ทำการล้อคอิน Gmail เรียบร้อยแล้ว

    เลือกเมนู New Project

    ทำการตั้งชื่อ Project name และเลือก Location (สามารถใช้ no organization เป็น default ได้)

    รอจนหน้า Google Cloud Project แจ้งว่าเสร็จแล้วให้เราค้นหาในช่องค้นหาด้านบนว่า Gemini API และทำการ Enable ซะ

    หลังจากที่ Enable แล้วให้กลับไปที่หน้า Google AI Studio และทำตามขั้นตอนการ Get API Key

    ทีนี้เราก็จะเห็น Project ที่พึ่งสร้างแล้วกดคลิกเพื่อเลือกและกด Create API key in existing project

    และเราก็จะได้ API Key เพื่อใช้เรียก service แล้ว แต่ระวังไว้ด้วยนะว่าอย่าเผลอแชร์ให้คนอื่นละไม่งั้นคุณจะโดนบิลอ่วมเลยละ

    หลังจากนั้นก็กลับมาที่โค้ด copy และ วางในเครื่อง local เพื่อทดสอบเสียก่อน โดยเราสามารถเอา API_KEY ที่ได้วางแทนตรงนี้ได้เลยย

    แต่การทำอย่างงั้นเรียกได้ว่าไม่ปลอดภัยเอาซะเลย เพราะฉะนั้นเราควรที่จะใช้ library อย่าง dotenv เพื่อมาอุดปัญหานี้โดย dotenv จะทำอ่านค่าบางอย่างจากไฟล์ที่ชื่อว่า .env ซึ่งเป็นไฟล์ที่เก็บตัวแปรต่างๆที่เราไม่อยากให้คนนอกรู้นั้นเอง

    ทีนี้เราก็สามารถทดสอบโค้ดที่ google ai studio ให้มาได้แล้ว เย้

    # To run this code you need to install the following dependencies:
    # pip install google-genai
    
    import base64
    import os
    from google import genai
    from google.genai import types
    
    
    def generate():
        client = genai.Client(
            api_key=os.environ.get("GEMINI_API_KEY"),
        )
    
        model = "gemini-2.5-pro-preview-05-06"
        contents = [
            types.Content(
                role="user",
                parts=[
                    types.Part.from_text(text="""INSERT_INPUT_HERE"""),
                ],
            ),
        ]
        generate_content_config = types.GenerateContentConfig(
            response_mime_type="text/plain",
            system_instruction=[
                types.Part.from_text(text="""Extract data into CSV format where | separates columns. Use this exact column order:  
    {'|'.join(CSV_COLUMNS)}.  
    
    Rules:  
    1. Keep f1 always 0.  
    1.1 Always keep {NUM_COLUMNS} columns 
    2. Extract doc_no as the second column and datedoc as the fourth. Do not swap these.  
    3. Blank fields must contain 0.  
    4.  If which row  you can't understand skip it.
    Example:
    {'|'.join(CSV_COLUMNS)}
    1|01038/2559|0|1/7/2559|รายงานการสำรองข้อมูลประจำเดือน มิย.59|งานสารบรรณ (สบ.)|กองบริหารการคลัง (กค.)|เดินเรื่องเอง เดินเรื่องเอง|0
    2|กบ0026/1222|0|30/6/2559|ขอส่งเงินค่าไฟฟ้าที่พักอาศัยเจ้าหน้าที่ ประจำเดือน พค.59|งานสารบรรณ (สบ.)|กองบริหารการคลัง (กค.)|0|0
    Always make it {NUM_COLUMNS} columns
    Ensure the output always aligns exactly to this structure."""),
            ],
        )
    
        for chunk in client.models.generate_content_stream(
            model=model,
            contents=contents,
            config=generate_content_config,
        ):
            print(chunk.text, end="")
    
    if __name__ == "__main__":
        generate()
    

    อย่างไรก็ดีโค้ดที่ gemini ให้มานั้นยังทำงานได้แค่กับการ pass ค่า text เข้าไปได้เท่านั้นแถมยังเป็นการรันแบบ ถามตอบแค่ครั้งเดียว ซึ่ง โค้ดดังกล่าวนั้นยังไม่ตอบโจทย์ที่เราต้องนำมาแก้ไขเลย ผมก็เลยมีการแก้โค้ด โดยทำการเพิ่ม method ที่สามารถรับไฟล์เข้าไปเพื่อให้ Gemini Flash Model อ่านผ่าน OCR ได้นั้นเอง

    และเมื่อทำการอ่านค่าได้แล้วเราก็ต้องเพิ่มโค้ดอีกนิดนึงว่าแทนที่จะอ่านทีละไฟล์เราก็สร้าง loop ให้โค้ดของเราอ่านผ่านโฟลเดอร์ที่เก็บไฟล์เอาไว้จนกว่าจะหมดแปลงค่าออกมาเป็น csv format ให้เรานั้นเอง

    เมื่อ ถอดค่าจากไฟล์สแกนได้แล้ว เราก็บันทึกลง .csv ที่เตรียมไว้เพื่อที่เราจะเอาข้อมูลดังกล่าวไปใช้ในขั้นตอน INSERT ข้อมูลลงฐานข้อมูลได้ต่อไปนั้นเอง

    Sourcecode 

    จากการที่เรานำ AI มาประยุกต์ใช้ทำให้ผมไม่ต้องมานั่งกรอกข้อมูลทีละบรรทัดและสามารถอัพข้อมูลเสร็จได้ทั้งสิ้น 265062 ไฟล์ โดยใช้เวลาเพียงแค่ 5 วัน ในการรันโค้ดทั้งหมด แทนที่จะใช้เวลาหลายเดือนนั้นเอง

    ผมได้ทดลองให้คุณดูแล้วว่า AI นั้นมีประโยชน์มากแค่ไหนหากเราเข้าใจและใช้มันได้อย่างมีประสิทธิภาพ ผมว่ามันถึงตาคุณแล้วละที่จะต้องลองนำไปประยุกต์ใช้ เพื่อให้งานราชการของเรามีประสิทธิภาพมากขึ้นครับ คุณอาจจะลองเริ่มจากลองใช้ Google AI Studio ก่อนก็ได้ครับมันฟรี ลดกำแพงการศึกษาไปอี๊ก อยากให้คุณได้ลองสัมผัสนะครับ ละจะติดใจแน่นอน

    References

    For Gemini API – https://ai.google.dev/gemini-api/docs

    For Encoder/Decoder – https://www.youtube.com/watch?v=Q7mS1VHm3Yw&t=7834s

  • การใช้ FileZilla เพื่อจัดการไฟล์อย่างมืออาชีพ

    การใช้ FileZilla เพื่อจัดการไฟล์อย่างมืออาชีพ


    Table of Content


    บทนำ: เริ่มต้นการเดินทางกับ FileZilla

    ห่างหายกันไปนานเลยนะครับกับบล็อก! วันนี้ผมกลับมาพร้อมกับคู่มือแนะนำวิธีการใช้โปรแกรม FileZilla ซึ่งเป็นเครื่องมือที่ทรงพลังมากสำหรับการจัดการไฟล์ พร้อมทั้งจะขออธิบาย Architecture ที่อยู่เบื้องหลังให้เข้าใจกันมากขึ้นด้วยครับ พอดีผมต้องเขียนเอกสารถ่ายทอดงานให้ทีมอยู่แล้ว ก็เลยถือโอกาสนี้เรียบเรียงและนำมาแบ่งปันในบล็อกนี้ด้วยเลยครับ หวังว่าจะเป็นประโยชน์กับเพื่อนๆ นะครับ

    ก่อนอื่นเลย เพื่อนๆ คงเคยได้ยินคำว่า FTP หรือ File Transfer Protocol กันมาบ้างใช่ไหมครับ? FTP เป็นเทคโนโลยีที่ถูกสร้างขึ้นมาเพื่อปฏิวัติวงการการจัดเก็บและโอนย้ายไฟล์เลยก็ว่าได้ และเจ้า FTP นี่แหละครับ คือเทคโนโลยีสำคัญที่อยู่เบื้องหลังการทำงานของ FileZilla นั่นเอง

    FTP และ FileZilla คืออะไร? ทำความเข้าใจพื้นฐาน

    FTP หรือ File Transfer Protocol เป็นโปรโตคอล (Protocol) หรือข้อกำหนดมาตรฐานรูปแบบหนึ่งที่ใช้ในการส่งผ่านไฟล์ระหว่างคอมพิวเตอร์สองเครื่องผ่านเครือข่ายอินเทอร์เน็ตหรือ LAN โดย FTP เคยเป็นโปรโตคอลที่ใช้กันอย่างแพร่หลายและถือเป็นมาตรฐานของอุตสาหกรรมอยู่ยุคหนึ่งเลยทีเดียวครับ จนกระทั่งการมาของ SFTP (SSH File Transfer Protocol) ซึ่งมีความปลอดภัยสูงกว่า FTP แบบดั้งเดิมมาก ทำให้ความนิยมของ FTP แบบเดิมลดน้อยลงไป แต่ก็ยังมีการใช้งานกันอยู่ครับ

    FileZilla เป็นซอฟต์แวร์ (Software) ประเภท Open-Source ที่พัฒนาโดยคุณ Tim Kosse และทีมงาน FileZilla ถูกออกแบบบนสถาปัตยกรรมแบบ Client-Server ทำหน้าที่หลักในการอำนวยความสะดวกในการโอนย้ายไฟล์ระหว่างเครื่องคอมพิวเตอร์ของผู้ใช้ (Local) กับเครื่องเซิร์ฟเวอร์ (Server) หรือในทางกลับกันก็ทำได้เช่นกัน FileZilla นั้นมีให้เลือกใช้ทั้งแบบฟรี (FileZilla Client และ FileZilla Server) และแบบเสียเงิน (FileZilla Pro) ซึ่งมีฟีเจอร์เพิ่มเติมสำหรับผู้ใช้งานระดับสูงครับ

    เมื่อเข้าใจคอนเซ็ปต์คร่าวๆ แล้ว เรามาเริ่มติดตั้ง FileZilla Client กันเลยดีกว่าครับ!

    มาเริ่มต้นกันเลย! (วิธีติดตั้ง FileZilla Client)

    1. ดาวน์โหลดโปรแกรม: ขั้นแรก ให้เพื่อนๆ ทำการดาวน์โหลดโปรแกรม FileZilla Client จากเว็บไซต์ทางการโดยตรง เพื่อความปลอดภัยและได้เวอร์ชันล่าสุดครับ (แนะนำ: https://filezilla-project.org/)

    https://filezilla-project.org/

    2. เริ่มการติดตั้ง: เมื่อดาวน์โหลดไฟล์ติดตั้ง (.exe สำหรับ Windows หรือไฟล์ที่เหมาะสมสำหรับ OS อื่นๆ) มาแล้ว ให้ดับเบิลคลิกเพื่อเริ่มกระบวนการติดตั้งครับ ให้ทำตามขั้นตอนที่ Wizard แนะนำไปเรื่อยๆ โดยส่วนใหญ่เราสามารถกด “Next” หรือ “Agree” ได้เลยครับ

    3. เสร็จสิ้นการติดตั้ง: เมื่อติดตั้งเสร็จสิ้นแล้ว เราก็พร้อมเปิดโปรแกรม FileZilla Client ขึ้นมาใช้งานกันได้เลยครับ! หน้าตาโปรแกรมเมื่อเปิดครั้งแรกจะเป็นประมาณนี้

    คู่มือย้ายไฟล์: จาก Web Server (Local) สู่ File Server (Remote) ด้วย FileZilla

    ในสถานการณ์นี้ เราจะจำลองว่า FileZilla Client ของเรากำลังทำงานอยู่บน Web Server (หรือเครื่องที่เราเข้าถึงไฟล์ของ Web Server ได้โดยตรง) ซึ่งจะแสดงผลเป็น “Local Site” (ฝั่งซ้าย) ใน FileZilla และเราต้องการย้ายไฟล์จาก Web Server นี้ไปยัง File Server ปลายทาง ซึ่งเราจะเชื่อมต่อและให้แสดงผลเป็น “Remote Site” (ฝั่งขวา) ครับ

    เพื่อให้เห็นภาพรวมของขั้นตอน ผมขอวาดเป็น Flowchart ง่ายๆ ด้วยภาษา Mermaid ให้ดูกันก่อนนะครับ:

    Code snippet

    graph TD
        A[เริ่มต้น] --> B(เปิดโปรแกรม FileZilla บน Web Server)
        B --> C{เชื่อมต่อ File Server ปลายทางผ่าน Site Manager}
        C --> D[เลือกไฟล์/โฟลเดอร์บน Web Server (Local Site) ที่ต้องการย้าย]
        D --> E[ลากไฟล์/โฟลเดอร์จาก Web Server (Local Site) ไปยัง File Server (Remote Site)]
        E --> F[ตรวจสอบความเรียบร้อยและสิ้นสุด]
    

    เอาล่ะครับ มาดูขั้นตอนแบบละเอียดกันเลย:

    1. เชื่อมต่อ File Server ปลายทาง (Remote Site):

    2. หากยังไม่เคยสร้าง Site มาก่อน หรือต้องการเพิ่มการเชื่อมต่อใหม่ ให้คลิกที่ปุ่ม New Site ครับ (ภาพปุ่ม New Site)จากนั้น ตั้งชื่อ Site ของคุณ (เช่น “My File Server”) แล้วกรอกรายละเอียดการเชื่อมต่อที่สำคัญในแท็บ “General” ครับ:

    • Host: ป้อน IP Address หรือชื่อ Hostname ของ File Server ปลายทาง
    • Username: ชื่อผู้ใช้สำหรับเข้า File Server
    • Password: รหัสผ่านสำหรับเข้า File Server

    3. ทำความเข้าใจโปรโตคอลก่อนเชื่อมต่อ (สำคัญมาก!): ก่อนที่เราจะกด “Connect” ผมอยากให้เราทำความเข้าใจเกี่ยวกับ “Protocol” (โปรโตคอล) ที่จะใช้เชื่อมต่อกันสักนิดครับ เพราะมีผลต่อความปลอดภัยของข้อมูลเรามากๆ

    • SFTP (SSH File Transfer Protocol): ชื่อเต็มคือ SSH File Transfer Protocol (คนละตัวกับ FTPS นะครับ!) ตัวนี้จะแตกต่างจาก FTP โดยสิ้นเชิงครับ SFTP ไม่ได้ทำงานบนฐานของ FTP แต่ทำงานผ่านโปรโตคอล SSH (Secure Shell) ซึ่งมีความปลอดภัยสูงมาก โดยปกติเราจะใช้พอร์ต 22 (พอร์ตเดียวกับ SSH) ในการเชื่อมต่อ วิธีนี้ปลอดภัยกว่า FTP มาก เพราะมีการเข้ารหัสข้อมูลทั้งหมดที่ส่งผ่าน ทำให้มั่นใจได้ว่าข้อมูลของเราปลอดภัยครับ ผมแนะนำให้เลือกใช้ SFTP หาก File Server ของคุณรองรับครับ

    • Storj (Decentralized Cloud Storage): ตัวเลือกนี้เป็นโปรโตคอลสำหรับการเชื่อมต่อกับบริการ Cloud Storage แบบกระจายศูนย์ที่ชื่อว่า Storj ครับ ซึ่งมักจะเป็นฟีเจอร์ใน FileZilla Pro (เวอร์ชันเสียเงิน) แทนที่จะเป็นการโอนไฟล์ไปยัง Remote Server แบบเดิมๆ ก็จะเป็นการโอนไฟล์ไปยัง Cloud Storage ตาม Region ต่างๆ แทนครับให้เพื่อนๆ เลือก Protocol ที่เหมาะสม (แนะนำ SFTP) จากนั้นตรวจสอบ Port ให้ถูกต้อง (SFTP มักจะเป็น Port 22)

    • Logon Type (ประเภทการเข้าสู่ระบบ): ผมแนะนำให้เลือกเป็น Ask for password (ถามรหัสผ่านทุกครั้ง) เพื่อความปลอดภัยสูงสุดครับ เพราะถ้าเลือกเป็น Normal โปรแกรมจะบันทึกรหัสผ่านไว้ ซึ่งหากใครเข้าใช้คอมพิวเตอร์หรือ FileZilla ของเราได้ ก็จะสามารถเชื่อมต่อเซิร์ฟเวอร์ได้ทันที เสี่ยงต่อการถูกแฮกได้ครับ (ภาพตัวเลือก Protocol และ Logon Type ใน Site Manager)

    4. เริ่มการเชื่อมต่อ:

    • เมื่อกรอกข้อมูลครบถ้วนและถูกต้องแล้ว กดปุ่ม Connect ได้เลยครับ FileZilla จะพยายามเชื่อมต่อไปยัง File Server ปลายทาง
    • หากเชื่อมต่อสำเร็จ คุณจะเห็นข้อความสถานะการเชื่อมต่อที่ดี และในหน้าต่างด้านขวา (Remote Site) จะแสดงไฟล์และโฟลเดอร์บน File Server ครับ (ภาพแสดงการเชื่อมต่อสำเร็จ และหน้าต่าง Remote Site ที่มีไฟล์)

    5. เตรียมไฟล์และเริ่มโอนย้าย:

    • ตอนนี้ มาดูหน้าต่างโปรแกรม FileZilla กันครับ:
      • ฝั่งซ้าย (Local Site): นี่คือไฟล์และโฟลเดอร์บน Web Server ของคุณ (เครื่องที่คุณกำลังเปิด FileZilla อยู่ หรือเครื่องที่ FileZilla มองเห็นไฟล์เป็น Local)
      • ฝั่งขวา (Remote Site): นี่คือไฟล์และโฟลเดอร์บน File Server ปลายทาง ที่คุณเพิ่งเชื่อมต่อเข้าไป คุณสามารถค้นหาไฟล์หรือโฟลเดอร์ได้หลายวิธีครับ ไม่ว่าจะเป็นการพิมพ์ Path Directory โดยตรง, การคลิกไล่ดูตามโฟลเดอร์ (Browse), หรือใช้ฟังก์ชันค้นหา (หากมี)
    • ในหน้าต่าง Local Site (ด้านซ้าย – Web Server ของคุณ) ให้ไปยังโฟลเดอร์ที่มีไฟล์ที่คุณต้องการจะย้ายไปยัง File Server ครับ (ภาพแสดงการเลือกไฟล์ใน Local Site)
    • เลือกไฟล์หรือโฟลเดอร์ที่ต้องการจากฝั่ง Local Site (Web Server) จากนั้น ลาก (drag and drop) ไฟล์หรือโฟลเดอร์เหล่านั้นข้ามไปวางยังตำแหน่งที่ต้องการในฝั่ง Remote Site (File Server) ครับ หรือจะคลิกขวาที่ไฟล์/โฟลเดอร์ต้นทางแล้วเลือก “Upload” ก็ได้เช่นกัน
    • รอจนกว่ากระบวนการโอนย้ายไฟล์จะเสร็จสิ้น คุณสามารถดูความคืบหน้าได้ที่แถบด้านล่างของโปรแกรมครับ

    6. ตรวจสอบความถูกต้อง:

    • หลังจากโอนย้ายไฟล์เสร็จสิ้น ควรตรวจสอบความถูกต้องของไฟล์บน File Server (Remote Site) อีกครั้งครับ
    • คุณสามารถตรวจสอบจำนวนไฟล์และขนาดรวมของโฟลเดอร์ได้ในแถบสถานะของ FileZilla หรือโดยการคลิกขวาที่โฟลเดอร์แล้วเลือก ‘Properties’ (คุณสมบัติ) ทั้งบน Web Server (Local Site) และบน File Server (Remote Site) เพื่อเปรียบเทียบครับ

    เยี่ยมไปเลยครับ! ตอนนี้ไฟล์ของคุณก็ถูกย้ายจาก Web Server ไปยัง File Server เรียบร้อยแล้ว

    สำรวจฟีเจอร์น่าใช้บน FileZilla Client

    FileZilla Client ไม่ได้มีดีแค่การโอนไฟล์นะครับ ยังมีเมนูและฟีเจอร์ย่อยๆ ที่น่าสนใจอีกเพียบ ลองมาดูกันครับ:

    • FILE (ไฟล์): สำหรับแท็บนี้ นอกจาก Site Manager ที่เราใช้กันไปแล้ว ยังใช้สำหรับเปิดแท็บการเชื่อมต่อใหม่ (New tab), นำเข้า (Import) หรือส่งออก (Export) การตั้งค่า Site Manager จาก FileZilla เครื่องอื่นก็ได้ ทำให้ไม่ต้องตั้งค่าใหม่ทั้งหมดเมื่อย้ายเครื่องครับ
    • EDIT (แก้ไข): ในแท็บนี้จะมีตัวเลือกสำหรับการตั้งค่าต่างๆ ของโปรแกรม (Settings) เช่น การแก้ไขการตั้งค่าพอร์ตเริ่มต้น, การตั้งค่า Network Configuration Wizard เพื่อช่วยตรวจสอบการตั้งค่า Firewall และ Router ว่าถูกต้องหรือไม่ และยังมีตัวเลือกสำหรับล้างข้อมูลส่วนตัว (Clear private data) เช่น ประวัติการเชื่อมต่อและรหัสผ่านที่บันทึกไว้ (ถ้ามี) ครับ
    • VIEW (มุมมอง): แท็บนี้ใช้สำหรับปรับแต่งการแสดงผลส่วนต่างๆ ของโปรแกรม FileZilla เช่น ซ่อนหรือแสดงแถบ Local, Remote, แถบสถานะ, หรือคิวการถ่ายโอนไฟล์ ทำให้เราปรับหน้าจอให้เหมาะสมกับการใช้งานของเราได้ครับ
    • TRANSFER (การถ่ายโอน): แท็บนี้ใช้เพื่อจัดการกับกระบวนการถ่ายโอนไฟล์ในปัจจุบัน เช่น ดูสถานะการถ่ายโอน, ไฟล์ที่อยู่ในคิวรอการโอนย้าย, ประมวลผลคิวอีกครั้ง (Process Queue) และยังสามารถตั้งค่าประเภทการถ่ายโอนเริ่มต้น (Default transfer type) ได้ด้วยครับ
    • SERVER (เซิร์ฟเวอร์): แท็บนี้มีคำสั่งที่เกี่ยวข้องกับเซิร์ฟเวอร์ที่เรากำลังเชื่อมต่ออยู่ เช่น การป้อนคำสั่ง FTP โดยตรง (Enter custom command), การบังคับให้แสดงรายการไฟล์ในโฟลเดอร์อีกครั้ง (Refresh), หรือการค้นหาไฟล์บนเซิร์ฟเวอร์ (Search remote files) ครับ
    • BOOKMARKS (บุ๊กมาร์ก): หากคุณต้องเข้าถึงโฟลเดอร์ใดโฟลเดอร์หนึ่งบน Remote Server บ่อยๆ คุณสามารถเพิ่มเป็นบุ๊กมาร์กได้จากเมนูนี้ครับ ทำให้คลิกเพียงครั้งเดียวก็เข้าไปยังโฟลเดอร์นั้นได้ทันที สะดวกสุดๆ!

    หลังจากที่เราเชื่อมต่อเซิร์ฟเวอร์ได้แล้ว เราก็สามารถโยนไฟล์ข้ามไปมาได้อย่างอิสระ หรือจะใช้ฟีเจอร์เด็ดอีกอย่างคือการแก้ไขไฟล์บนเซิร์ฟเวอร์โดยตรงก็ได้เช่นกันครับ

    ยกตัวอย่างเช่น บางครั้งเราอาจต้องการเข้าไปแก้ไข Source Code หรือไฟล์ Config เล็กๆ น้อยๆ อย่างเร่งด่วน เราสามารถคลิกขวาที่ไฟล์บน Remote Server แล้วเลือก View/Edit ได้เลย FileZilla จะดาวน์โหลดไฟล์นั้นมาเก็บไว้ชั่วคราว ให้เราเปิดแก้ไขด้วยโปรแกรม Editor ที่เราตั้งค่าไว้ เมื่อเราแก้ไขและกด Save ไฟล์นั้น FileZilla จะตรวจจับการเปลี่ยนแปลงและถามว่าจะอัปโหลดไฟล์ที่แก้ไขกลับไปยังเซิร์ฟเวอร์หรือไม่ เป็นฟีเจอร์ที่ช่วยประหยัดเวลาได้มากโขเลยครับ

    FileZilla Server คืออะไร? ใครควรใช้?

    นอกจาก FileZilla Client ที่เราเน้นใช้งานกันแล้ว ยังมี FileZilla Server ด้วยนะครับ ซึ่งตามชื่อเลยครับ ตัวนี้จะทำหน้าที่เป็น “เซิร์ฟเวอร์” ให้ผู้อื่นเชื่อมต่อเข้ามาเพื่อรับส่งไฟล์ FileZilla Server รองรับโปรโตคอล FTP, FTPS (FTP over SSL/TLS), และ SFTP (สำหรับเวอร์ชัน Pro หรือเมื่อคอมไพล์เองกับไลบรารีที่รองรับ) เพื่อให้มั่นใจว่าไฟล์ที่ส่งผ่านนั้นถูกเข้ารหัสและปลอดภัย

    โดยในหน้าจอการตั้งค่า (GUI – Graphical User Interface) ของ FileZilla Server นั้นก็จะมีฟีเจอร์ให้ปรับแต่งได้มากมาย เช่น การสร้าง User และ Group, การกำหนดสิทธิ์การเข้าถึงโฟลเดอร์, การจำกัดความเร็ว, การกรอง IP Address และอื่นๆ อีกมากมายครับ เหมาะสำหรับคนที่ต้องการตั้ง FTP Server ส่วนตัว หรือใช้ภายในองค์กรครับ

    จริงๆ แล้วยังมี FileZilla Pro ที่รวมความสามารถทั้ง Client และ Server พร้อมฟีเจอร์ขั้นสูงอีกมากมาย แต่เนื่องจากผมเองยังไม่เคยได้ใช้งานเวอร์ชัน Pro อย่างเต็มรูปแบบ จึงขอละรายละเอียดในส่วนนี้ไว้ก่อนนะครับ

    โหมดของ FTP: Active และ Passive ต่างกันอย่างไร?

    สำหรับเพื่อนๆ ที่ใช้ FTP (แบบดั้งเดิมหรือ FTPS) อาจจะเคยสงสัยเกี่ยวกับ “โหมด” การเชื่อมต่อของ FTP ซึ่งหลักๆ แล้วมีอยู่ 2 โหมด คือ Active Mode และ Passive Mode ครับ สองโหมดนี้มีความแตกต่างกันในเรื่องของวิธีการที่ Client และ Server สร้างช่องทางการสื่อสารสำหรับส่งข้อมูล (Data Channel) ครับ

    1. Active Mode (แอคทีฟโหมด): ในโหมดนี้ Client จะเป็นคนเริ่มต้นการเชื่อมต่อ Command Channel (ช่องทางส่งคำสั่ง) ไปยัง Server จากนั้น Client จะ “บอก” Server ว่าจะให้ Server เชื่อมต่อ Data Channel กลับมาหา Client ที่ IP Address และ Port ไหน เมื่อ Server ได้รับข้อมูลแล้ว Server ก็จะเป็นฝ่าย “เริ่มต้น” การเชื่อมต่อ Data Channel กลับมายัง Client ครับ ปัญหามักจะเกิดถ้า Client อยู่หลัง Firewall หรือ NAT Router ซึ่งอาจจะบล็อกการเชื่อมต่อที่เข้ามาจาก Server ครับ
    2. Passive Mode (พาสซีฟโหมด) (เป็นค่าเริ่มต้นใน FileZilla): เพื่อแก้ไขปัญหาของ Active Mode จึงเกิด Passive Mode ขึ้นมาครับ ในโหมดนี้ Client จะเป็นคนเริ่มต้นทั้ง Command Channel และ Data Channel ครับ โดย Client จะส่งคำสั่ง PASV ไปยัง Server จากนั้น Server จะตอบกลับมาพร้อมกับ IP Address และ Port Number ที่ Server ได้เปิดรอไว้สำหรับ Data Channel แล้ว Client ก็จะใช้ข้อมูลนั้นในการเริ่มต้นการเชื่อมต่อ Data Channel ไปยัง Server ครับ วิธีนี้มักจะทำงานได้ดีกว่าเมื่อ Client อยู่หลัง Firewall เพราะ Client เป็นฝ่ายเริ่มการเชื่อมต่อออกไปทั้งหมด

    โดยทั่วไปแล้ว FileZilla Client จะตั้งค่าเริ่มต้นเป็น Passive Mode ซึ่งมักจะไม่มีปัญหาในการใช้งานครับ

    บทสรุป: ก้าวต่อไปกับการจัดการไฟล์ของคุณ

    การมาถึงของเทคโนโลยี FTP และโปรแกรมอย่าง FileZilla ได้ทำให้การถ่ายโอนไฟล์ระหว่างเครื่องคอมพิวเตอร์และเซิร์ฟเวอร์เป็นเรื่องที่ง่าย สะดวก และมีประสิทธิภาพมากขึ้นอย่างเห็นได้ชัด ไม่ว่าคุณจะเป็นนักพัฒนาเว็บไซต์, ผู้ดูแลระบบ, หรือผู้ใช้งานทั่วไปที่ต้องการจัดการไฟล์บนเซิร์ฟเวอร์ FileZilla ก็เป็นเครื่องมือหนึ่งที่ตอบโจทย์ได้อย่างยอดเยี่ยมครับ

    สำหรับก้าวต่อไปคุณสามารถประยุกต์ Concept นี้ไปใช้กับการเขียนโค้ด หรือว่าประยุกต์กับ การเขียนสคริปต์ หรือ ทำ Automation เพื่อให้การถ่ายโอนข้อมูลมีประสิทธิภาพไร้รอยต่อมากยิ่งขึ้น

    หวังว่าคู่มือนี้จะเป็นประโยชน์และช่วยให้เพื่อนๆ เข้าใจวิธีการใช้งานโปรแกรม FileZilla ได้ดียิ่งขึ้นนะครับ ลองนำไปปรับใช้กับการทำงานของตัวเองดู แล้วจะพบว่าการจัดการไฟล์บนเซิร์ฟเวอร์ไม่ใช่เรื่องยากอีกต่อไป! หากมีคำถามหรือข้อเสนอแนะเพิ่มเติม สามารถคอมเมนต์ไว้ได้เลยนะครับ แล้วพบกันใหม่ในบทความหน้าครับ!

    Reference

  • เพิ่มประสิทธิภาพชีวิตด้วย AI: แนวคิดจาก World Economic Forum

    เพิ่มประสิทธิภาพชีวิตด้วย AI: แนวคิดจาก World Economic Forum

    สอง สามวันก่อนผมนั่งไถฟีดเฟสบุ๊คแล้วก็ได้เห็นรูปภาพ Skills Quadrant ที่ว่าด้วยทักษะที่จำเป็นสำหรับทศวรรษถัดไป

    ทำให้ผมรู้สึกว่าน่าสนใจที่จะมาลองวิเคราะห์ว่า ทำไม ผู้คนในงาน World Economic Forum ที่จัดที่เมืองดาวอส ประเทศสวิตเซอร์แลนด์ ถึงคิดเช่นนั้นกันะ

    เรามาเริ่มที่ทักษะแรกกันเลยยย

    Technology Skill

    AI and Big Data

    ในปัจจุบัน ปัญญาประดิษฐ์ หรือ AI เป็นหนึ่งในเครื่องมือที่ได้รับความนิยมอย่างล้นหลาม ด้วยความสามารถที่ล้นเหลือ สามารถช่วยเราเพิ่มประสิทธิภาพ เพิ่ม productivity และอีกหลายสิ่งที่มาช่วยอำนวยความสะดวกในชีวิตประจำวัน

    การมาถึงของ Generative AI เช่น ChatGPT, Google Gemini, X Grok, และ Anthropic Claude ยิ่งทำให้ AI เป็นเหมือนมิตรสหายคู่ใจที่ไม่ว่าจะถามอะไรก็ให้คำตอบได้เสมอ ทำงานจิปาถะได้ทั้งนั้นตั้งแต่วางแผนงานในแต่ละสัปดาห์ไปจนถึงเป็นคนให้คำซัพพอร์ทในช่วงที่รู้สึกเปราะบางเช่นกัน

    แต่การที่เราใช้ Gen AI เหล่านี้โดยไม่รู้เทคโนโลยีเบื้องหลัง หรือวิธีการใช้งานมันอย่างละเอียดก็อาจนำมาซึ่งปัญหา (hallucination) หรือ ไม่สามารถดึงประสิทธิภาพของพวกมันได้อย่างเต็มที่นัก

    เพราะฉะนั้นหากเรารู้วิธีการใช้มัน รวมไปถึงหลักการพื้นฐานของ AI และ Big Data เรียนรู้วิธีการใช้ Few Shot Prompting,รู้ว่า Model แต่ละชนิดเหมาะสมกับงานแบบไหน รู้ว่า Platform อย่าง make หรือ n8n สามารถใช้ทำงานประเภท automate ได้ ก็จะยิ่งทำให้เราดึงประสิทธิภาพออกมาได้มากขึ้น ทำให้เราเข้าถึงประสบการณ์ที่ขับเคลื่อนด้วย AI ได้ยิ่งขึ้นอีก้ดวย

    Technological Literacy

    ในโลกที่เทคโนโลยีเป็นดั่งพระเอกในทุกๆภาคอุตสาหกรรม การที่เราสามารถเข้าใจเกี่ยวกับเทคโนโลยีที่ร่วมสมัยได้ก็จะยิ่งทำให้เราไม่ถูกสิ่งเหล่านี้กลืนโดยคลื่นแห่งการเปลี่ยนแปลง หรือถูกแย่งงาน หากเราเข้าใจว่าอะไรคือ Generative AI, รู้วิธีการใช้งานเพื่อใช้พวกมันในการ boost productivity เช่นใช้ NotebookLM ในการสรุปเนื้อหาจากหนังสือ ถามตอบเพื่อสร้างการเรียนรู้ที่มี Interactive มากขึ้น

    การรู้จักประยุกต์ใช้ AI เพื่อช่วยในการทำสไลด์ หรือออกแบบรูปภาพ สิ่งเหล่านี้ก็จะช่วยให้เราเอาชีวิตรอดในยุคที่ AI เป็น 1 ในปัจจัยกามีชีวิตเช่นกัน 

    Self-efficacy

    Curiosity and Lifelong Learning

    ส่วนตัวข้อนี้สำหรับผมนั้นสำคัญยิ่งกว่าข้อไหนๆเลย เพราะว่าความรู้จากยุคก่อนคงไม่สามารถทำให้เราเอาตัวรอดจากเทคโนโลยีที่หมุนผ่านอย่างรวดเร็วได้อีกแล้ว การที่เป็นคนช่างสงสัย ใฝ่รู้ และฝักใฝ่ที่จะร่ำเรียนวิชา มีทักษะใน unlearn relearn reskill ด้วยทักษะเหล่านี้ ก็จะทำให้เราสามารถเอาตัวรอดได้แน่นอน เช่น ความรู้ในการเขียน Pascal จากอดีตก็คงจะไม่สามารถหยุดยั้งการถูก AI เข้ามาแย่งงานได้อีกแล้ว หากเรารู้จักที่เริ่มนับจาก 0 เพื่อเรียนรู้ใหม่ๆอีกครั้ง ก็จะทำให้คุณรอดแน่นอน

    Resilience, flexibility, and agility

    การเป็นคนที่ยืดหยุ่น ล้มแล้วลุกไว รับมือกับอุปสรรคที่ไม่สามารถคาดเดาได้ในปัจจุบัน ก็เป็นอีกหนึ่งทักษะที่จำเป็นเช่นกัน เพราะในเมื่อคุณจำเป็นที่จะต้อง unlearn และ relearn บ่อยครั้งคุณก็ต้องพบกับทางตัน หรือว่ารู้สึกว่าตัวเองเดินผิดทาง ซึ่งนั้นย่อมมาสู่ความรู้สึกเสียใจแน่นอน เพราะฉะนั้นหากคุณมีทักษะเหล่านี้ก็จะช่วยให้คุณไม่เสียเวลามากและพร้อมที่จะลองใหม่อีกครั้งเช่นกัน

    Motivation and self-awareness

    ในหลายๆครั้งที่เราเรียนต้องเริ่มต้นใหม่ หรือ อยู่ระหว่างการเรียนรู้สิ่งใหม่ๆ มันย่อมมีบ่อยครั้งที่รู้สึกเหนือ่ยและเหน็ดหน่ายจนอย่ากจะล้มเลิกความตั้งใจ การที่คุณตระหนักรู้ว่า ตอนนี้ตัวเองรู้สึกอย่างไร รวมถึงมีแรงจูงใจที่ดี ไม่ว่าจะเป็นตำแหน่งงานที่ดีขึ้น รายได้ที่เพิ่มขึ้น หรือ อำนาจที่มากขึั้นก็ตาม ก็จะช่วยให้คุณไม่รู้สึกหมดกำลังใจไปเสียก่อน

    Cognitive Skills

    System skills

    การมีทักษะทางความคิดในการมองภาพใหญ่ หรือ มองหลายๆอย่างเป็นองค์รวมก็เป็นสิ่งจำเป็นเช่นกัน คุณ ลองนึกดูสิ ในโลกที่มี เครื่องมือในการใช้านเยอะมาก เช่น ในด้าน Technology มี tool ใหม่ๆเกิดขึ้นเป็นจำนวนมาก หรือมีภาษาเกิดขึ้นเป็นจำนวนมาก หากเรามัวแต่โฟกัสทุกอย่างเราก็จะรู้สึก overwhelm และ หมดกำลังใจได้ในที่สุด การที่เราเข้าใจเทคโนโลยี เข้าใจโลก และตัวเอง มองภาพให้เป็นองค์รวมก็จะช่วยให้เราเข้าใจระบบและสามารถเลือกตัดสินใจได้อย่างถูกต้องในระยะยาวได้นั้นเอง

    Analytic thinking

    นอกจากทักษะในการมองภาพใหญ่แล้ว การที่เรามี problem solving skill และ ทักษะในการ analze องค์ประกอบนั้นมีส่วนช่วยอย่างมากให้คุณเข้าใจว่าคุณกำลังทำอะไรอยู่ เข้าใจว่าตอนนี้สิ่งแวดล้อมรอบตัวคุณเป็นเช่นไร การที่คุณอย่างมีตรรรกะ เป็นระเบียบและอ้างอิงตามหลักฐานที่มี จะยิ่งช่วยให้คุณเข้าใจเหตุการณืในปัจจุบันได้ดีขึ้น

    Creative Thinking

    นอกจากทักษะการมองภาพรวม และการมองเฉพาะเจาะจง สิ่งที่จะช่วยให้การวิเคราะห์ทั้งสองแบบมีประสิทธิภาพมากขึ้นได้นั้น ก็คงนี้ไม่พ้นทักษะเชิงความคิดสร้างสรรค์ การเติมแต่งไอเดียให้มีความหลากหลาย ทดลองตั้งสมมติฐานใหม่ๆ ลองผิดลองถูก ก็จะยิ่งช่วยให้เราได้รับโอกาส หรือเรียนรู้สิ่งใหม่ๆตามมาเช่นกัน

    Team Managements

    Talent Management

    หากคุณเป็นหัวหน้า การมีทักษะในการบริหารทีมก็เป็นอีกหนึ่งสิ่งจำเป็นเ่นกันในยุคที่โอกาสมีให้คว้าอย่างมากมาย การรู้จักบริหารคนเก่งและคนดี จะยิ่งช่วยให้สามารถรักษาเสถียรภาพภายในองค์กร ได้อย่างยิ่ง สอนพวกเขา รักษาและพัฒนา ทำให้พวกเขามีความสุขและรู้สึก productive เป็น safe zone ให้พวกเขาก็จะยิ่งทำให้เรารักษาเขาไว้ได้นานขึ้น

    Working with others

    Empathy and Active Listening

    การเป็นผู้ฟังที่ดีและรู้จักเห็นอกเห็นใจ ก็เป็นอีกหนึ่งทักษะสำคัญเช่นกัน ในบางครั้ง เราไม่รู้หรอกว่าเพื่อนร่วมงานเผชิญอะไรมาบ้างในชีวิต หรือมี background ชีวิตอย่างไร การที่เรารู้จักเห็นอกเห็นใจผู้อื่นเอาใจเขามาใส่ใจเราก็จะช่วยให้การใช้ชีวิตนั้นดำเนินได้อย่างราบรื่นมากขึ้น 


    การรู้จักที่จะฟักมากกว่าการพูดก็จะยิ่งช่วยให้เราได้เรียนรู้สิ่งใหม่ๆ มีเวลาไตร่ตรองและช่วยให้รักษาความสัมพันธ์ได้ดียิ่งขึ้น

    Leadership and Social Influence

    ภาวะผู้นำก็เป็นอีกหนึ่งทักษะจำเป็นในโลกที่อะไรหลายๆอย่างก็ไม่แน่นอนเช่นี้ การที่เรารู้ว่าจะชี้นำและพัฒนาผู้อื่นพาพวกเขาไปสู่จุดที่ดีกว่าย่อมเป็นสิ่งจำเป็นสำหรับยุคนี้เช่นกัน

    Reference

  • 20 Blocks Essential for WordPress Content Creation

    20 Blocks Essential for WordPress Content Creation

    ผมได้มีโอกาสเรียนคอร์ส Web For Impact Batch 05 กับ Ad’Toy จาก Datarockie ซึ่งผมชอบแนวคิดที่ว่า เราควรที่จะมีเว็บไซต์เป็นของตัวเองไว้สำหรับเป็นบ้านที่แท้จริงเพื่อการแชร์ไอเดีย หรือเก็บบางสิ่งบางอย่างที่เรามองว่าเป็นทรัพย์สินของเรา ที่ไม่ใช่การไปอาศัยอยู่ใต้ชายคาของใคร อาทิ เช่น Facebook Page, Medium Blog, และ อื่นๆ อีกมากมาย

    คุณลองนึกดูสิ หากวันใดวันหนึ่งเพจของคุณถูกปิดตัวลง เนื้อหาที่คุณลงไว้ทั้งหมดก็จะหายไปพร้อมกับเพจของคุณ ซึ่งไม่สามารถที่จะกู้กลับมาได้ และการไปเริ่มต้นใหม่ก็ต้อง เริ่มหา members หายอด reachs ใหม่ทั้งหมดหมดเลยซึ่งนั้นก็ดูจะไม่แฟร์เอาซะเลยใช่ไหมครับ

    แนวคิดนี้ทำให้ผมตั้งสินใจสมัคร Paid Plan ของ WordPress เพื่อมาแชร์ไอเดียหรือสิ่งที่ผมได้เรียนรู้ในชีวิตประจำวัน (หยุดเขียนไปตั้ง 1 เดือนแหนะ แซดเวอร์ งานยุ่งไม่ไหว​)

    จากการลองผิดลองถูกมา 3-4 โพสต์ ผมเลยอยากที่จะมาแชร์ 20 blocks ที่ผมคิดว่าจำเป็นสำหรับการรังสรรค์งานออกมาจากที่แอดทอยแนะนำในคอร์สและที่ผมลองหาดูเอง

    ก่อนที่จะเข้าถึงเนื้อหาผมอยากจะบอกก่อนว่าในเนื้อหาที่จะพูดถึงแค่ประเภท block นะครับจะไม่ได้เจาะลึกว่าแต่ละ block มี toolbar ให้ใช้อะไรบ้างในส่วนนี้ท่านสามารถอ่านต่อได้ผ่านการคลิกตรงนี้ได้เลยครับ

    Table of Content


    • Basic Content Blocks
    • Interactive & Layout Blocks
    • Advanced & Specialty Blocks
    • Workflow ในการวางโครงสร้าง Content

    Basic Content Blocks

    1. Paragraph Blocks

    block ที่ใช้งานแทบจะเรียกว่าทุกๆ จุดของหน้าpost เพื่อการเขียนเนื้อหาบทความของทุกคน

    สามารถเริ่มพิมพ์อะไรก็ได้เลย

    2. Heading Blocks

    block สำหรับการขึ้นหัวข้อใหม่ หรือว่า เนื้อหาพาร์ทใหม่ การใช้ heading block นั้นมีส่วนช่วยให้ผู้ใช้งานอ่านหรือเลือกหัวข้อได้ง่ายขึ้น และยังเป็นผลดีต่อเว็บไซต์ อีกด้วย ( search engines )

    Shortcut: Heading block สามารถเพิ่มได้หลายวิธี เช่น พิมพ์​ # หรือ /h{1-6}

    heading

    3. List Blocks

    List blocks ใช้สำหรับการแสดงรายการ เพื่อจัดการ content ให้เป็นระเบียบยิ่งขึ้น โดยสามารถใช้สร้าง bulleted point หรือ numbered list ก็ได้

    List block

    Shortcut: เราสามารถพิม์ /list หรือ พิมพ์ – เพื่อสร้าง bulleted point กับ พิมพ์ตัวเลขเพื่อสร้าง numbered list

    4. Quote Blocks

    Quote blocks เป็น block ที่เหมาะจะใช้แสดงข้อความรีวิวจากผู้ใช้งาน เพื่อเน้นว่าเว็บไซต์ของเราเป็นอย่างไร หรือนำไปใช้กับวลีหรือประโยคที่เรามองว่าเป็นแรงบันดาลใจกับเราได้เช่นกัน

    Shortcut: /quote หรือ > เพื่อเรียกใช้งาน

    Quote Block

    5. Image Blocks

    blocks สำหรับเพิ่มรูปภาพลงบนหน้าเว็บไซต์ของเราเพื่อใช้เป็นภาพประกอบบทความ แต่ก็มีข้อควรระวังนั้นคือเราควรเลือกใช้ภาพนามสกุล .webp เพื่อให้มีขนาดเล็กและโหลดเร็วซึ่งเป็นผลดีต่อเว็บไซต์

    Shortcut: สามารถพิมพ์ /image

    Image Block

    6. Gallery Blocks

    block สำหรับใช้โชว์รูปภาพเหมือน Image Block แต่จุดแตกต่างกับ Image block ก็คือ gallery block สามารถโชว์ภาพได้มากกว่า 1 ภาพ เหมาะสำหรับใช้กับเว็บไซต์ อาหาร หรือ เว็บไซต์ช่างภาพที่ต้องการโชว์รูปซึ่งเป็นผลงานของเว็บไซต์ เราสามารถปรับจำนวน แถว และ หลัก ของ Gallery Block ได้ว่าอยากได้เท่าไหร่เพื่อให้เหมาะกับการแสดงผลบนหน้าเว็บไซต์

    Shortcut: /gallery เพื่อใช้งานได้

    ข้อควรระวัง

    การใช้งาน Gallery Block มีประโยชน์อย่างมากในการจัดชุดภาพขนาดใหญ่ แต่ก็ควรระวังหากไฟล์ภาพมีขนาดใหญ่เกินไปซึ่งสามารถส่งผลต่อการโหลดภาพ แนะนำว่าภาพควรจะเป็นนามสกุล .webp เพื่อให้ได้ขนาดที่เล็กและโหลดเร็วเป็นผลดีต่อเว็บไซต์

    Gallery Block

    7. Video Blocks

    ใช้สำหรับการอัพโหลด วีดิโอ ใน หน้า page หรือ post เพื่อใช้สำหรับประกอบบทความหรือโฆษณา แต่ในการใช้ Video Block นั้นผู้ใช้งานต้องอัพเกรดเป็นเวอร์ชั่น Premium จึงจะสามารถใช้งาน block ดังกล่าวได้

    Shortcut: /video

    ใช้งาน เราจะมีตัวเลือก 3 options ได้แก่ Upload, Media Library, Insert from URL

    • Upload: ใช้สำหรับการเลือก Video จากบนเครื่องของเรา
    • Media Library: ใช้สำหรับการเลือก Video ที่อยู่บน WordPress
    • Insert from URL: ใช้สำหรับการเลือกวีดิโอโดยการแปะ url ที่อยู่บนอินเทอร์เน็ตเพื่อใช้งาน
    • การใช้ Video block นั้นเหมาะกับการที่เราจะดึงดูดความสนใจของผู้ใช้งาน แต่เราก็ต้องคำนึกถึงขนาดไฟล์และความเร็วอินเทอร์เน็ตของผู้ใช้งานไว้ด้วยเช่นกัน ไม่อย่างนั้นจะเป็นการไปลดประสบการณ์การใช้งานของผู้ใช้งานแทน
    Video Block

    8. Table Blocks

    Table block ใช้สำหรับสร้างตารางเพื่อแสดงค่าบางอย่างประกอบบทความ โดยเราสามารถเลือกได้ว่าจะเอากี่แถว กี่คอลัมน์

    Shortcut: /table

    • หากต้องการสร้างตารางที่มีความซับซ้อนขึ้นเช่น สามารถ เรียงลำดับข้อมูล หรือแบ่งหน้าได้อาจจะมองเป็นการใช้ plugin เสริมอย่าง TablePress
    Table Block

    9. File Block

    block สำหรับวาง file ที่สามารถดาวน์โหลดได้ โดยไฟล์ดังกล่าวจะต้องเป็นนามสกุลที่ wordpress ซัพพอร์ทจึงจะสามารถอัพโหลดได้

    Shortcut: /file

    File Block

    10. Audio Block

    ใช้สำหรับการวางไฟล์ประเภทเสียงต่าง เช่น เพลง, พอดแคสท์, และอื่นๆ เพื่อประกอบบทความ

    Shortcut: /audio

    Interactive & Layout Blocks

    ในพาทย์นี้ block ทั้งหมดจะเป็น block ที่ใช้สำหรับการจัดหน้าและ action ต่างๆ เพื่อทำให้เว็บไซต์ของเรามีความ dynamic มากขึ้นโดยเราจะขอเริ่มจาก

    11. Button Blocks

    block สำหรับการสร้างปุ่ม เพื่อใช้ interact กับหน้าเว็บไซต์ โดยเราสามารถเพิ่มข้อความ ลิ้งค์ หรือตกแต่งได้ ตัวอย่างเช่น เราอยากให้เขาคลิ้กเพื่อออกไปหน้าเว็บไซต์อื่นๆ เป็นต้น

    Shortcut: /button

    Button Block

    12. Column Blocks

    block สำหรับการจัดหน้า โดย block นี้สามารถเพิ่ม ข้อความ สื่อต่างๆ, และสามารถใส่ได้สูงสุด 6 columns ใน 1 แถว โดยเราสามารถเลือกได้ว่าจะเอากี่ column จากค่าเริ่มต้น

    Shortcut: /columns

    Column Block

    13. Cover Blocks

    block สำหรับเพิ่มรูปภาพหรือวีดิโอที่สามารถเขียนข้อความบนภาพได้

    Shortcut: /cover

    Cover Block

    14. Spacer Blocks

    block สำหรับ เพิ่มช่องว่างระหว่าง block อื่นๆ ยกตัวอย่างเช่น หากคุณอยากได้ช่องว่างในแนวตั้ง ก็ใช้ vertical spacer และ ถ้าอยากได้ช่องว่างในแนวนอน ก็เรียก horizontal spacer

    Shortcut: /spacer

    Spacer Block

    15. Group Blocks

    block สำหรับจับกลุ่ม block อื่นๆ เพื่อให้ง่ายต่อการจัดระเบียบ content บนหน้าโพสต์หรือเพจ โดยเราสามารถ ตั้งค่าพื้นหลัง, สี, ช่องว่าง ให้หลากหลายขึ้น

    Shortcut: /group

    Group Block

    16. Media & Text Blocks

    block ที่เราสามารถวางไฟล์ภาพ หรือวีดิโอ พร้อมๆกับ ข้อความ ประกอบได้ ช่วยเพิ่มความชัดเจนให้กับวิดีโอที่จะสื่อได้ดียิ่งขึ้น เราสามารถตั้งค่าสีพื้นหลังและปรับตำแหน่งของข้อความ

    Shortcut: /media

    Media & Text

    17. Embed Blocks

    block ที่ให้คุณสามารถเพิ่มเนื้อหาจากแหล่งอื่นๆบนเว็บไซต์ของคุณได้ด้วยการวางลิ้งค์ใน block อย่างไรก็ตามเราต้องศึกษาเพิ่มเติมว่าเว็บไซต์ไหนบ้างที่อนุญาตให้เราสามารถเอาลิ้งค์จากเว็บเข้ามาแปะบนหน้าเว็บเราได้ เช่น YouTube, Spotify และ Twitter

    Shortcut: /embed

    Embed Block

    Advanced & Specialty Blocks

    18. Shortcode Blocks

    block สำหรับใส่โค้ดไม่ว่าจะเป็น embed file หรือการสร้าง object บ้างอย่างที่ซับซ้อนได้

    Shortcut: /shortcode

    Shortcode Block

    19. HTML Blocks

    block ที่อนุญาตให้เราเขียน htmlได้โดยสามารถเขียน styling เองได้ตามใจ

    Shortcut: /html

    html block

    20. Query Loop Blocks

    block ที่ใช้ในการลูป content บางอย่างที่มีลักษณะเป็นกลุ่ม เช่น โพสต์ของเราเป็นต้น โดยสามารถสร้าง template มาลองรับเพื่อให้ทุกอันแสดงผลเหมือนกัน

    Shortcut: /query

    Query Block

    Workflow ในการวางโครงสร้าง Content

    สำหรับผมเวลาเอา content ที่เตรียมใน notion หรือ จาก notes ต่างๆ มาขึ้นใน wordpress ก็จะแบ่งตามนี้

    • ใช้ heading block เพื่อแบ่งพาร์ท
    • ใช้ paragraph block เพื่อเขียนเนื้อหา
    • ใช้ image block หรือ video block เพื่อให้เห็นภาพมากขึ้นหรือเข้าใจง่ายขึ้น
    • ใช้ spacer block เพื่อจัดหน้าให้ดูอ่านง่าย
    • ใช้ code block ในการวาง code แทนการแคปหน้าจอ

    จบกันไปแล้วนะครับสำหรับ 20 blocks ที่คุณควรรู้จักบน WordPress แล้วคุณละ ใช้ block ไหนบ่อยที่สุด หรือถ้าหากมีไอเดียหรือ block อะไรที่น่าสนใจสามารถแชร์กันได้ใต้ comments ได้เลยครับ

    Reference

    WordPress Documentation

  • สรุป key insight จาก Smoking in UK dataset การบ้าน Ad’toy

    สรุป key insight จาก Smoking in UK dataset การบ้าน Ad’toy

    การวิเคราะห์พฤติกรรมการสูบบุหรี่ในสหราชอาณาจักร

    สวัสดีครับ หลังจากห่างหายไปเป็นอาทิตย์ วันนี้เรากลับมากับ coursework จาก คอร์ส Data Analyst Bootcamp ของ Ad’ Toy โดยการบ้านนี้จะเป็นส่วนหนึ่งของวิชา Spreadsheet โฟกัสที่การทำ pivot table และ dashboard

    สำหรับการบ้านนี้ผมเลือกที่จะใช้ dataset จากบน kaggle แหล่งรวม free dataset จากทั่วทุกมุมโลก ซึ่งในคราวนี้มันจะเกี่ยวกับ การสูบบุหรี่ภายในสหราชอาณาจักร

    สาเหตุที่ผมเลือกหัวข้อนี้เพราะว่าปีหน้าผมกำลังจะไปเรียนต่อ ป.โท เลยคิดว่าอยากทำอะไรที่เกี่ยวกับประเทศที่เราไปดีกว่า

    ในสหราชอาณาจักรอังกฤษตอนนี้กำลังจะบัญญัติกฎหมายใหม่ว่าด้วยการซื้อบุหรี่นั้นมีความผิดหากผู้ซื้อมีอายุต่ำกว่า 15 ปี แม้ว่าในปัจจุบันจำนวนผู้สูบบุหรี่ในช่วงวัยรุ่น นั้นจะลดลงแต่จำนวนผู้ที่เลือกหันไปสูบ บุหรี่ไฟฟ้า ( Vape ) ก็มีเพิ่มขึ้นเช่นกัน แม้งานวิจัยหลายอย่างจะชี้ตรงกันว่า การสูบบุหรี่ไฟฟ้ามีผลข้างเคียงน้อยกว่าบุหรี่ธรรมดา แต่ในระยะยาวแล้ว ก็สามารถส่งผลต่อระบบการหายใจ สมองและหัวใจได้เช่นเดียวกัน

    จากการสำรวจข้อมูลของ ทาง Office of National Statistics ใน สหราชอาณาจักรอังกฤษ พบว่า 50% เลิกบุหรี่เพราะว่าปัญหาด้านสุขภาพในขณะที่ 25% เลิกเพราะราคาที่ปรับตัวสูงขึ้นของบุหรี่

    หลังจากที่เรารู้ข้อมูลบางส่วนเกี่ยวกับพฤติกรรมการสูบบุหรี่ไปเรียบร้อยแล้ว งั้นเรามาดู columns ของ dataset นี้กันก่อนดีกว่าครับ

    Table of Content

    About Dataset

    แบบสำรวจนี้เป็นการสำรวจข้อมูลพฤติกรรมการสูบบุหรี่ในสหราชอาณาจักร โดยข้อมูลดังกล่าวสามารถนำมาใช้วิเคราะห์ลักษณะของผู้สูบและประเภทของบุหรี่ที่สูบ โดยข้อมูลนี้จะเก็บจากกลุ่มตัวอย่าง (sample) 1,691 คน ด้วยตัวแปรทั้ง 12 ตัวดังนี้

    ColumnDescription
    genderชาย หรือ หญิง
    ageอายุ
    marital_statusสถานะการแต่งงาน แบ่งเป็น หย่าร้าง แต่ง แยกกันอยู่ โสด และ หม่าย
    highest_qualificationระดับการศึกษา
    nationalityสัญชาติ
    ethnicityเชื้อชาติ
    gross_incomeรายได้สุทธิ
    regionพื้นที่
    smokeสถานะว่าสูบหรือไม่สูบ
    amt_weekendsจำนวนบุหรี่ที่สูบ ต่อวันในช่วงวันหยุดสุดสัปดาห์
    amt_weekdaysจำนวนบุหรี่ที่สูบ ต่อวันในช่วงวันธรรมดา
    typeประเภทบุหรี่ที่สูบ

    How can I create a chart in with pivot table

    1. ขั้นตอนแรก เลือกข้อมูลทั้งหมดโดยคลิกที่บริเวณมุมซ้ายบนของตาราง
    an image show an area for drag all of content in a sheet

    2. หลังจากเลือกข้อมูลทั้งหมดแล้ว ให้เลือกเมนู Insert > Pivot Table ระบบจะถามว่าต้องการสร้างใน Sheet ใหม่หรือใช้ Sheet ที่มีอยู่แล้ว

    A dialog show asking whether you will create in a new sheet or not

    3. เมื่อกด Create จะได้ตารางว่างและ Pivot Table Editor

    A blank table
    A pivot table editor

    4. เมื่อได้หน้าตาแบบนี้แล้ว เราสามารถลากหรือกดปุ่ม Add เพื่อเพิ่มข้อมูลในส่วนต่างๆ เช่น:

    • Filters
    • Rows
    • Columns
    • Values

    5. เราสามารถเลือกให้แสดงค่าผลรวมโดยเลือกที่ Show Totals Checkbox

    6. เมื่อได้ตารางที่ต้องการแล้ว ให้เลือกตารางดังกล่าวแล้วไปที่เมนู Insert > Chart

    7. สามารถคลิกที่ปุ่มสามจุด (⋮) เพื่อ:

    • ปรับแต่งรายละเอียดอื่นๆ
    • แก้ไขประเภทของกราฟให้เหมาะสม
    • ปรับแต่งชื่อกราฟ
    • เปลี่ยนสัญลักษณ์
    Chart Editor

    Insight

    ภายในข้อมูลชุดนี้ ไม่มีการระบุข้อมูลประเภทเวลา (date/time) ทำให้เราไม่สามารถสร้างกราฟประเภท line chart หรือ time series chart ได้

    หาก กราฟนี้มีข้อมูลประเภทนี้เพิ่มขึ้นเราสามารถวัดได้ว่าในแต่ละช่วงเวลาของปี ปริมาณบุหรี่ที่สูบแปรผันหรือไม่ หรือ ถ้าข้อมูลเวลายาวนานเพียงพอก็สามารถนำมาตั้งสมมติฐานว่า ในอดีตจนถึงปัจจุบันบุหรี่แต่ละประเภทมีความนิยมต่างกันเช่นไร (multiple line graph in one chart) เป็นต้น

    1. อายุเฉลี่ยของคนที่มาตอบแบบสอบถามนี้ เฉลี่ยแล้วอยู่ที่ 49.84 ปี
    2. แบบสอบถามนี้แบ่งออกเป็น ผู้ชาย 726 คน และ ผู้หญิง 965 คน
    Gender bar chart
    Gender bar chart

    3. ภายในแบบสอบถามนี้มีผู้สูบบุหรี่ (Yes) คิดเป็น 24.90% และ ไม่สูบ ( No ) 75.10%

    A smokers vs non-smokers donut chart
    A smokers vs non-smokers donut chart
    Cigarette type Vs Gross Income Stacked bar chart
    Cigarette type Vs Gross Income Stacked bar chart

    4. จากการวิเคราะห์ข้อมูลระหว่างช่วงรายได้สุทธิและประเภทของบุหรี่ ทำให้ผมพบข้อมูลที่น่าสนใจ ดังนี้

    • แบบซอง (Packets)
      • ในทุกช่วงรายได้ ผู้คนเลือกที่จะซื้อบุหรี่แบบซองมากกว่าที่จะมวนเองหรือเลือกทั้งคู่ โดยมีสัดส่วนถึง 75% ในช่วงรายได้ 26,400 ไปจนถึง 36,400 และมากกว่านั้น โดยในช่วงมากกว่า 36,400 บาทนั้นไม่พบผู้ที่ซื้อบุหรี่มวนเองเลย
      • ในขณะที่ช่วงรายได้อื่นก็คิดเป็นถึง 70% ของผู้ตอบแบบสอบถามในแต่ละช่วง
    • แบบมวนเอง (Hand-rolled)
      • ในช่วงรายได้ 2,600 ถึง 5,200 มีผู้ซื้อบุหรี่มามวนเองคิดเป็น 25% ของกลุ่มตัวอย่างที่มีรายได้อยู่ในช่วงดังกล่าว
      • จำนวนจะลดลงตามช่วงรายได้ที่เพิ่มขึ้น
    • เลือกทั้งคู่
      • ในทุกช่วงรายได้มีคนเลือกที่จะทั้งซื้อและมวนเอง ยกเว้นในช่วง 28,600-36,400 ที่ไม่พบกลุ่มตัวอย่างใดเลย
      • แม้ว่าจะพบได้ในเกือบทุกช่วง แต่จำนวนเปอร์เซ็นต์ก็ถือว่าเป็นส่วนน้อยเมื่อเทียบกับผู้ที่เลือกอย่างใดอย่างหนึ่ง
    • ปัจจัยที่มีผลต่อการเลือกประเภทบุหรี่
      • ราคา: ราคาบุหรี่แบบซองนั้นมีราคามากกว่า ส่งผลให้ในช่วงรายได้ต่ำๆ นั้นคนจึงเลือกที่จะซื้อแบบมวนเองอย่างมีนัยสำคัญ
      • ความสะดวก: การเลือกซื้อบุหรี่แบบซองนั้นง่ายต่อการใช้งานเมื่อเทียบกับแบบมวนเองที่ต้องนำมาเตรียม และยังมีราคาเพิ่มเติมหากต้องใช้อุปกรณ์ในการมวน
    Multiple bar chart about Nationality vs Region
    Multiple bar chart about Nationality vs Region

    5. จากข้อมูล ผมได้นำกราฟสัญชาติมาเทียบกับพื้นที่ เพื่อดูว่าในแต่ละพื้นที่นั้น สัญชาติใดมีแนวโน้มในการสูบบุหรี่อย่างไรบ้าง

    • British
      • กลุ่มตัวอย่างที่นิยามตัวเองว่าเป็น British มีจำนวนการสูบบุหรี่กระจายตัวอยู่ในทุกพื้นที่
      • สามารถพบได้มากในบริเวณ Midland & East Anglia, The North และ South East มากกว่า 25 คนในแต่ละพื้นที่
    • English
      • กลุ่มที่นิยามตนว่าเป็น English นั้นพบได้ทั่วไปในทุกพื้นที่ แต่จะพบมากที่สุดที่ The North เป็นจำนวน 60 คน และประมาณ 58 คนบริเวณ Midland & East Anglia
      • พบได้น้อยในพื้นที่ Scotland และ Wales
    • Irish
      • ผู้ที่นิยามว่าตนเป็น Irish นั้นพบได้น้อยมากในชุดข้อมูลนี้ โดยพบได้ในทุกพื้นที่แต่อยู่ในสัดส่วนที่น้อย ยกเว้นใน Wales ที่ไม่พบคนกลุ่มนี้เลย
      • แต่ละพื้นที่จะพบเพียงแค่ 5 คน หรือน้อยกว่านั้น
    • Scottish
      • คนสกอตแลนด์สามารถพบได้มากที่สุดในพื้นที่ Scotland โดยมีมากกว่า 40 คนจากกลุ่มตัวอย่าง และเพียง 3-5 คนใน London และ The North
    • Welsh
      • คนเวลส์สามารถพบได้มากใน Wales และเพียง 2-3 คนในพื้นที่ The North และ South East
    • ข้อสังเกตเพิ่มเติม
      • จากกลุ่มตัวอย่างนี้ ไม่สามารถสรุปได้อย่างแน่ชัดว่าคนสัญชาติใดที่สูบบุหรี่มากที่สุด เนื่องจากพื้นที่ที่ใช้ในการสำรวจนั้นไม่ครอบคลุมทั่วทั้งสหราชอาณาจักร
      • กลุ่มตัวอย่างเพียง 1,691 คน ไม่สามารถสรุปได้ว่าสัญชาติในแต่ละพื้นที่ใดสูบบุหรี่มากกว่ากัน
      • จากการสังเกตจะพบว่ามีความสอดคล้องอย่างหนึ่งคือ หากเป็นคน Scottish ก็จะพบมากในพื้นที่ Scotland และ Welsh ก็พบมากใน Wales
    Gross Income vs Qualification
    Gross Income vs Qualification

    6. กราฟนี้จะเป็นการพูดถึงรายได้สุทธิเทียบกับระดับการศึกษา จากกราฟเราจะเห็นว่าในช่วงที่รายได้สูง กลุ่มประชากรที่จบระดับปริญญาตรีขึ้นไปก็เยอะเช่นกัน คิดเป็นเกือบ 50% ของช่วงรายได้ 28,600 ถึง 36,400 และช่วงที่มากกว่า 36,400 ในขณะเดียวกัน ในช่วงรายได้ต่ำจะสังเกตได้ว่าระดับการศึกษานั้นมีความหลากหลายเป็นอย่างมาก อย่างไรก็ตามเรายังไม่สามารถบอกได้ว่ารายได้กับจำนวนคนที่สูบบุหรี่มีความสัมพันธ์กัน

    • Degree
      • จากกราฟจะพบว่าคนที่เรียนจบระดับอุดมศึกษาและสูบบุหรี่จะพบมากที่สุด คิดเป็นเกือบ 50% ในช่วงรายได้ 28,600-36,400 หรือมากกว่านั้น และไม่พบเลยในช่วง 2,600-5,200
      • ในส่วนของช่วงรายได้อื่นจะคิดเป็นเปอร์เซ็นต์ไม่เกิน 10%
    • GCSE/O Level
      • สามารถพบได้ในทุกช่วงรายได้ และคิดเป็น 10-35% ของคนสูบบุหรี่ในแต่ละช่วง
      • ไม่พบในช่วงรายได้ 28,600 – 36,400
    • No Qualification
      • สามารถพบได้ประมาณ 30-50% ในช่วงรายได้ต่ำ ตั้งแต่ต่ำกว่า 2,600 ไปจนถึง 10,400 และค่อยๆ ลดลงไปเรื่อยๆ ตามช่วงรายได้สุทธิ
      • พบจำนวนคนสูบบุหรี่ที่ไม่มีวุฒิการศึกษาในช่วง 2,600-5,200 มากที่สุด คิดเป็น 50% ของกลุ่มตัวอย่างในช่วงนี้
    • A Level
      • คนที่เรียนจบระดับ A-Level พบได้น้อยมากในชุดข้อมูลนี้ โดยคิดเป็นเพียง 1-10% เท่านั้น
      • พบน้อยที่สุดในช่วง 5,200-10,400 ที่ 1.88% ของกลุ่มตัวอย่างในช่วงรายได้
    • GCSE/CSE
      • สวนทางกับผู้ที่เรียนจบระดับอุดมศึกษา กลุ่มนี้สามารถพบได้มากในช่วงรายได้น้อยและลดลงในช่วงรายได้มากขึ้น
      • พบได้มากที่สุดในผู้สูบบุหรี่ที่มีรายได้ต่ำกว่า 2,600 คิดเป็น 27.78% ของกลุ่มตัวอย่าง
    • ONC/BTEC
      • ไม่พบในรายได้ต่ำกว่า 5,200
      • พบมากที่สุดในช่วงรายได้มากกว่า 36,400 คิดเป็น 26.67%
    • ข้อสังเกต:
      • ในช่วงรายได้ปานกลางตั้งแต่ 5,200-28,600 เราสามารถพบคนสูบบุหรี่ได้จากทุกระดับการศึกษา
      • การศึกษาที่สูงมีโอกาสมีรายได้สูงตามด้วยเช่นกัน
      • แต่เราไม่สามารถระบุได้ว่าการมีรายได้สูงหรือการศึกษาสูงมีผลต่อจำนวนคนที่สูบบุหรี่หรือไม่
    Age Range vs Number of Cigarette in Weekday
    Age Range VS Number of Cigarette in Weekday
    Age Range VS Number of Cigarettes in Weekend
    Age Range VS Number of Cigarettes in Weekend

    7. ในส่วนของ bar chart สองอันนี้จะเป็นจำนวนบุหรี่ที่สูบในช่วงวันเสาร์-อาทิตย์ หรือช่วงวันธรรมดา ในแต่ละช่วงอายุ โดยจะสังเกตว่าในวันธรรมดา ผู้หญิงมีแนวโน้มสูบบุหรี่มากกว่าผู้ชายในช่วงอายุ 20-49 ในขณะที่ช่วงวันเสาร์-อาทิตย์ ผู้ชายสูบบุหรี่ในปริมาณที่มากกว่าผู้หญิงในทุกช่วงอายุ ยกเว้นเพียงช่วง 60-69 และ 80-89 เท่านั้น

    • ผู้ชาย
      • มีแนวโน้มสูบบุหรี่มากกว่าผู้หญิงในช่วงวันเสาร์-อาทิตย์ทุกช่วง ยกเว้นช่วงอายุ 60-69 และช่วงอายุ 80-89
      • ไม่พบทั้งผู้ชายและผู้หญิงในช่วงอายุ 90+ สูบบุหรี่เลยในช่วงวันเสาร์-อาทิตย์
      • พบผู้ชายสูบบุหรี่มากกว่าผู้หญิงในช่วง 70-79 โดยคิดเป็นความต่างอยู่ที่ประมาณ 13 คน
    • ผู้หญิง
      • มีแนวโน้มสูบบุหรี่มากกว่าผู้ชายในวันทำงาน ยกเว้นในช่วงอายุ 50-59 และ 60-69 ที่ผู้ชายมีแนวโน้มจะสูบบุหรี่มากกว่า และในช่วงอายุต่ำกว่า 20 ที่มีจำนวนผู้สูบบุหรี่เท่ากัน
      • ไม่พบผู้ชายสูบบุหรี่ในช่วงอายุ 90+
      • ผู้หญิงมีจำนวนสูบบุหรี่มากกว่าผู้ชายมากกว่า 20 คนในช่วงอายุ 40-49
    • ข้อสังเกต:
      • จากกราฟไม่สามารถสรุปได้ว่าเพศและวันหยุดมีความสัมพันธ์กันหรือไม่
      • ยิ่งอายุมากขึ้น มีแนวโน้มที่จะสูบบุหรี่น้อยลง
      • ไม่สามารถระบุความสัมพันธ์ได้
    Marital_status Vs  Average number of cigarettes
    Marital_status Vs Average number of cigarettes

    8. ในส่วนของกราฟนี้จะเป็นการดูว่าสถานะการสมรสกับจำนวนบุหรี่นั้นมีความสัมพันธ์อย่างไร โดยข้อมูลจำนวนบุหรี่นั้นเกิดจากการสร้าง Calculated Field ของค่าเฉลี่ยจำนวนบุหรี่ที่สูบในช่วงวันธรรมดาและวันหยุดเสาร์-อาทิตย์มารวมกัน

    • ผู้ที่มีสถานะโสดมีค่าเฉลี่ยของบุหรี่ที่สูบต่ำที่สุด ประมาณ 28 มวน และสูงสุดคือผู้ที่เป็นหม้าย อยู่ที่ 33 มวน
    • ในแต่ละสถานะการสมรสไม่ได้มีผลต่อจำนวนบุหรี่ที่สูบมากนัก เพราะว่าในกลุ่มตัวอย่างอื่นๆ ก็มีจำนวนที่ใกล้เคียงกัน
    • ข้อสังเกต
      • ไม่ได้พิจารณาปัจจัยอื่นๆ เช่น อายุ ระยะเวลา และเศรษฐกิจ
      • การใช้ค่าเฉลี่ยอาจเป็นค่ากลางที่ไม่ดีที่สุด หากการกระจายตัวนั้นไม่เป็นแบบ Normal Distribution

    Summary

    • อายุและเพศ
      • ผู้หญิงมีแนวโน้มสูบบุหรี่มากกว่าผู้ชายในช่วงวันธรรมดา
      • การสูบบุหรี่ลดลงตามอายุ
    • ปัจจัยทางเศรษฐกิจและการศึกษา
      • บุหรี่แบบซองเป็นที่นิยมในทุกช่วงรายได้
      • รายได้และการศึกษาแปรผันตามกัน
      • ผู้ที่มีรายได้น้อยเลือกที่จะมวนเอง
    • สถานภาพการสมรส
      • คนโสดมีแนวโน้มสูบบุหรี่น้อยที่สุด
      • สถานภาพกับจำนวนบุหรี่ไม่ได้มีนัยสำคัญที่ชัดเจน

    Restriction

    • ไม่มีข้อมูลช่วงเวลา จึงไม่สามารถทำ Time Series Chart ได้ ส่งผลให้ไม่รู้ว่าในระยะยาวนั้นสรุปข้อมูลได้อย่างไร
    • ข้อมูลยังน้อยไป ไม่สามารถหาความสัมพันธ์ที่ชัดเจนได้
    • ไม่มีข้อมูลบางด้าน เช่น อาชีพที่อาจจะสามารถสะท้อนระดับความเครียดกับจำนวนบุหรี่ได้

    How can I make it better

    • เก็บข้อมูลเพิ่มเติมโดยอ้างอิงตามช่วงเวลา เพื่อดูแนวโน้มการเปลี่ยนแปลงในระยะยาว
    • เก็บข้อมูลเพิ่มเติม เช่น อาชีพ และระดับความเครียด

    References

    https://www.kaggle.com/datasets/utkarshx27/smoking-dataset-from-uk/data

    https://www.bbc.com/news/health-68825322