Topic

ความเสี่ยงด้านสิทธิมนุษยชนในยุค AI: ต้นทุนแฝงและผลกระทบที่องค์กรต้องรับมือ

 

ความเสี่ยงด้านสิทธิมนุษยชนในยุค AI: ต้นทุนแฝงและผลกระทบที่องค์กรต้องรับมือ
โดย ฝ่ายพัฒนาความรู้ด้านความยั่งยืน ตลาดหลักทรัพย์แห่งประเทศไทย


สิ่งที่คุณจะได้รับจากบทความนี้ (Highlights):

  • การนำ AI มาใช้ในองค์กรอาจเป็นประเด็นสิทธิมนุษยชน: ตั้งแต่การละเมิดความเป็นส่วนตัว การเลือกปฏิบัติโดยอัลกอริทึม การลดทอนสิทธิแรงงาน ซึ่งล้วนเป็นความเสี่ยงที่มีนัยสำคัญต่อการดำเนินธุรกิจในปัจจุบัน [1,2,3]
  • ความเป็นส่วนตัวเป็นเรื่องอ่อนไหว: AI ซึ่งทำงานโดยอาศัยข้อมูลมหาศาล สร้างความท้าทายต่อการปฏิบัติตาม  พ.ร.บ. คุ้มครองข้อมูลส่วนบุคคลฯ (PDPA) ทั้งในมิติการขอความยินยอม การจำกัดวัตถุประสงค์ และการให้สิทธิแก่เจ้าของข้อมูล ซึ่งถือเป็นความเสี่ยงทางกฎหมายที่องค์กรต้องให้ความสำคัญสูงสุด [4, 5, 6]
  • การเลือกปฏิบัติรูปแบบใหม่: AI ที่เรียนรู้จากข้อมูลในอดีตอาจสร้างผลลัพธ์ที่เลือกปฏิบัติต่อคนบางกลุ่มโดยไม่เจตนา โดยเฉพาะในการจ้างงานและการให้บริการทางการเงิน ซึ่งนับเป็นความเสี่ยงด้านชื่อเสียงและความเท่าเทียมที่กระทบต่อความสามารถในการแข่งขันขององค์กรโดยตรง [7, 8, 9]
  • สิทธิแรงงานในยุคดิจิทัล: การใช้ AI บริหารจัดการพนักงาน โดยเฉพาะระบบการจ้างงานผ่านแพลตฟอร์ม  นำไปสู่การสอดส่องที่เข้มข้น ความกดดันสูงขึ้น และการลดทอนสิทธิแรงงานขั้นพื้นฐาน ซึ่งอาจส่งผลต่อสุขภาวะพนักงานและความยั่งยืนองค์กร [10, 11]
  • การกำกับดูแล AI คือคำตอบ: กรอบการกำกับดูแล AI (AI Governance) ที่แข็งแกร่ง การตรวจสอบสถานะด้านสิทธิมนุษยชน (Human Rights Due Diligence) ก่อนใช้ AI และการเปิดเผยข้อมูลอย่างโปร่งใส คือแนวทางพื้นฐานที่บริษัทจดทะเบียนต้องปฏิบัติ และเป็นสิ่งที่ผู้ลงทุนควรใช้ประเมินการบริหารจัดการความเสี่ยงของบริษัท

 


 

บทนำ: ความเสี่ยงด้านสิทธิมนุษยชนและต้นทุนแอบแฝงจากการนำ AI มาใช้

การนำปัญญาประดิษฐ์ (AI) มาอำนวยความสะดวกกิจกรรมต่าง ๆ ของมนุษย์ รวมถึงการเพิ่มประสิทธิภาพการดำเนินงานขององค์กรไทยมีแนวโน้มสูงขึ้นอย่างมีนัยสำคัญ ข้อมูลล่าสุดจากสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) ชี้ว่าองค์กรที่วางแผนจะนำ AI มาใช้มีสัดส่วนสูงถึง 73.3% ในปี 2567 เพิ่มขึ้นจาก 56.6% ในปีก่อนหน้า [14] การเปลี่ยนแปลงนี้ถูกขับเคลื่อนด้วยเป้าหมายในการเพิ่มประสิทธิภาพและสร้างความได้เปรียบในการแข่งขัน แต่เบื้องหลังประโยชน์ทางธุรกิจที่ชัดเจนเหล่านี้ คือความเสี่ยงด้านสิทธิมนุษยชนที่ซับซ้อนและมักถูกมองข้าม ซึ่งมาพร้อมกับ "ต้นทุนแฝง" ที่อาจส่งผลกระทบอย่างรุนแรงต่อองค์กร

ความเสี่ยงเหล่านี้เป็นประเด็นเชิงโครงสร้างที่ต้องถูกพิจารณาภายใต้โครงสร้างบรรษัทภิบาล (Corporate Governance) และกระบวนการบริหารความเสี่ยงขององค์กร ตั้งแต่การละเมิดความเป็นส่วนตัวของข้อมูล การสร้างระบบคัดกรองผู้สมัครงานที่เลือกปฏิบัติโดยไม่เจตนา ไปจนถึงการเปลี่ยนแปลงรูปแบบการจ้างงานที่อาจลดทอนสิทธิขั้นพื้นฐานของแรงงาน การทำความเข้าใจและบริหารจัดการความเสี่ยงเหล่านี้ จึงเป็นปัจจัยสำคัญที่ส่งผลต่อความยั่งยืนของกิจการ ความเชื่อมั่นของผู้มีส่วนได้เสีย และมูลค่าขององค์กรในระยะยาว

บทความนี้จะวิเคราะห์ความเสี่ยงด้านสิทธิมนุษยชน (Human Right Risk) ที่สำคัญ 3 ประเด็น ซึ่งอาจมาพร้อมกับการใช้ AI
และยกตัวอย่างแนวทางปฏิบัติสำหรับองค์กรเพื่อรับมือกับความก้าวหน้าของเทคโนโลยีนี้อย่างมีความรับผิดชอบ

 


 

 

ข้อมูลส่วนบุคคล: เมื่อ AI ท้าทายกฎหมาย PDPA

หัวใจสำคัญของการทำงานของ AI คือข้อมูล และบ่อยครั้งที่ข้อมูลเหล่านั้นเป็น ข้อมูลส่วนบุคคล ซึ่งอยู่ภายใต้การคุ้มครองของพระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคล พ.ศ. 2562 (PDPA) [4] กฎหมายฉบับนี้มีผลบังคับใช้เต็มรูปแบบแล้วตั้งแต่ปี พ.. 2565 โดยได้วางหลักการหลายประการที่การทำงานของ AI อาจเข้าข่ายละเมิดได้โดยง่าย [5, 6]

  • ความท้าทายต่อหลักการขอความยินยอมและจำกัดวัตถุประสงค์: PDPA กำหนดให้การเก็บรวบรวม ใช้ หรือเปิดเผยข้อมูลส่วนบุคคลต้องได้รับความยินยอมจากเจ้าของข้อมูลสำหรับวัตถุประสงค์ที่แจ้งไว้อย่างชัดเจนและเฉพาะเจาะจง [4] แต่ AI โดยเฉพาะ Machine Learning Model มักถูกฝึกฝนด้วยชุดข้อมูลขนาดมหาศาลที่อาจถูกรวบรวมมาเพื่อวัตถุประสงค์อื่นในอดีต การนำข้อมูลเก่าของลูกค้าหรือพนักงานมาใช้ฝึก AI โดยไม่ได้รับความยินยอมต่อวัตถุประสงค์ใหม่อย่างชัดเจน จึงมีความเสี่ยงสูงที่จะขัดต่อหลักการของ PDPA
  • การสอดส่องดูแลในที่ทำงาน (Workplace Surveillance): การใช้ AI เพื่อติดตามและประเมินผลการทำงานของพนักงานแบบเรียลไทม์กำลังเป็นที่นิยมมากขึ้น เทคโนโลยีเหล่านี้อาจเก็บข้อมูลพฤติกรรมการทำงานทุกฝีก้าว ตั้งแต่การใช้คอมพิวเตอร์ไปจนถึงการสื่อสารภายใน ซึ่งหากไม่มีการแจ้งวัตถุประสงค์ที่ชัดเจนและได้รับความยินยอมอย่างถูกต้อง อาจเข้าข่ายการเก็บข้อมูลส่วนบุคคลเกินความจำเป็นและละเมิดสิทธิความเป็นส่วนตัวของพนักงานได้ [15]
  • กรณีศึกษาการบังคับใช้ PDPA ในไทย: คณะกรรมการคุ้มครองข้อมูลส่วนบุคคล (PDPC) ได้แสดงให้เห็นถึงการบังคับใช้กฎหมายอย่างจริงจังแล้ว
    • กรณีศึกษาที่สำคัญหนึ่ง คือการสั่งปรับบริษัทเอกชนแห่งหนึ่งเป็นเงินหลักล้านบาท จากความล้มเหลวในการมีมาตรการรักษาความปลอดภัยของข้อมูลที่ไม่เพียงพอ จนทำให้ข้อมูลลูกค้ารั่วไหล [16]
    • นอกจากนี้ยังมีกรณีที่ PDPC เข้าไปตรวจสอบการรั่วไหลของข้อมูลนักเรียนทุนรัฐบาลไทย ซึ่งถูกดึงข้อมูลไปแสดงผลผ่านระบบค้นหาของ Microsoft Bing ที่ใช้ AI [17]

กรณีเหล่านี้เป็นเครื่องยืนยันว่าความเสี่ยงด้านข้อมูลที่เกี่ยวข้องกับ AI นั้นมีต้นทุนทางกฎหมายและชื่อเสียงที่สูงมาก

 

อคติของอัลกอริทึม (Algorithmic Bias): การเลือกปฏิบัติที่มองไม่เห็น

หนึ่งในความเสี่ยงด้านสิทธิมนุษยชนที่น่ากังวลที่สุดคือ "อคติของอัลกอริทึม" ซึ่งหมายถึง การที่ระบบ AI สร้างผลลัพธ์ที่ไม่เป็นธรรม หรือเลือกปฏิบัติต่อบุคคลบางกลุ่มอย่างเป็นระบบ ปัญหานี้ไม่ได้เกิดจากความผิดพลาดของโค้ด แต่เกิดจากข้อมูลที่ใช้สอน AI มีความไม่เที่ยง หรือยังไม่ได้กรองอคติออกก่อนนำมาใช้ [7, 8, 9]

  • กรณีศึกษา Amazon กับเครื่องมือคัดกรองใบสมัครงาน: ในปี 2558 Amazon ต้องยกเลิกโครงการพัฒนาระบบ AI เพื่อคัดกรองใบสมัครงาน หลังจากพบว่าระบบมีอคติต่อผู้สมัครเพศหญิงอย่างชัดเจน เนื่องจาก AI ถูกสอนจากข้อมูลประวัติการรับสมัครงานย้อนหลัง 10 ปี ซึ่งส่วนใหญ่เป็นเพศชาย ทำให้ระบบเรียนรู้ที่จะลดคะแนนใบสมัครที่มีคำว่า "ผู้หญิง" (เช่น กัปตันชมรมหมากรุกหญิง เป็นต้น) และให้คะแนนผู้ที่จบจากมหาวิทยาลัยหญิงล้วนต่ำกว่าปกติ [7]
  • กรณีศึกษา Workday กับข้อกล่าวหาประเด็นการเลือกปฏิบัติ: Workday ผู้ให้บริการซอฟต์แวร์ด้านทรัพยากรบุคคล (HR) รายใหญ่ กำลังเผชิญกับการฟ้องร้องแบบกลุ่มในประเทศสหรัฐอเมริกา โดยโจทก์อ้างว่าเครื่องมือคัดกรองผู้สมัครของบริษัทมีการเลือกปฏิบัติต่อผู้สมัครที่เป็นกลุ่มคนผิวสี ผู้ที่มีอายุมากกว่า 40 ปี และผู้พิการ [8] กรณีนี้ชี้ให้เห็นถึงความเสี่ยงทางกฎหมายที่ผู้พัฒนา AI อาจต้องรับผิดในฐานะ "ตัวแทน" ของนายจ้าง

สำหรับประเทศไทย แม้จะยังไม่มีข้อพิพาทที่ถูกเปิดเผยต่อสาธารณะ แต่การเลือกปฏิบัติโดย AI เกิดขึ้นแล้วจริง โดยเฉพาะในอุตสาหกรรมการเงินที่เริ่มใช้ AI ในการพิจารณาสินเชื่อบุคคล หรือในกระบวนการสรรหาบุคลากรขององค์กรขนาดใหญ่ [19, 20] เมื่อเกิดการเลือกปฏิบัติขึ้น ผลที่ตามมาคือความเสียหายต่อชื่อเสียงองค์กร การสูญเสียบุคลากรที่มีความสามารถ (Talents) ไปจนถึงการฟ้องร้องทางกฎหมายก็เป็นได้

 

 

สิทธิแรงงานในยุคดิจิทัล: ความท้าทายจาก Algorithmic Management

การใช้ AI ในการบริหารจัดการพนักงาน หรือที่เรียกว่า "Algorithmic Management" กำลังเปลี่ยนแปลงความสัมพันธ์ระหว่างนายจ้างและลูกจ้าง โดยเฉพาะในกลุ่มแรงงานชั่วคราวที่มีการจัดจ้างผ่านแพลตฟอร์มออนไลน์ต่าง ๆ  

  • กรณีศึกษาไรเดอร์ในประเทศไทย: แรงงานไรเดอร์ของแพลตฟอร์มส่งอาหารในไทย เช่น Grab Lineman เป็นต้น ถูกบริหารจัดการโดยอัลกอริทึมที่ทำหน้าที่แทนผู้จัดการที่เป็นมนุษย์ ตั้งแต่การจ่ายงาน การกำหนดค่าตอบแทน การประเมินผลการทำงาน ไปจนถึงการลงโทษผ่านระบบคะแนน
  • ผลกระทบต่อสิทธิแรงงาน: ระบบนี้สร้างแรงกดดันมหาศาลต่อไรเดอร์ จากการศึกษาพบว่าไรเดอร์จำนวนมากต้องทำงาน 12-14 ชั่วโมงต่อวันเพื่อให้มีรายได้เพียงพอ และกว่า 30% เคยประสบอุบัติเหตุ โดยส่วนหนึ่งยอมรับว่าต้องขับขี่อย่างเสี่ยงอันตรายเพื่อทำเวลาให้ทันตามที่อัลกอริทึมกำหนด นอกจากนี้ การที่แพลตฟอร์มจัดประเภทไรเดอร์เป็น "พาร์ทเนอร์" หรือ "ผู้รับจ้างอิสระ" ทำให้พวกเขาไม่ได้รับการคุ้มครองตามกฎหมายแรงงานขั้นพื้นฐาน เช่น ค่าแรงขั้นต่ำ, ประกันสังคม, หรือวันหยุดพักผ่อน ซึ่งเป็นการผลักภาระความเสี่ยงทางธุรกิจทั้งหมดไปให้ตัวแรงงาน
  • การควบคุมที่เข้มข้นและความกดดันที่สูงขึ้น: แพลตฟอร์มส่งอาหารในประเทศไทยใช้ AI ในการมอบหมายงาน ประเมินประสิทธิภาพ และกำหนดค่าตอบแทนให้แก่ไรเดอร์แบบเรียลไทม์ [10] การบริหารจัดการด้วยอัลกอริทึมนี้สร้างแรงกดดันให้ไรเดอร์ต้องทำงานแข่งกับเวลา ขาดอำนาจในการต่อรอง และเผชิญกับความไม่แน่นอนของรายได้ ซึ่งส่งผลกระทบโดยตรงต่อสุขภาวะทางกายและใจ [11]
  • การลดทอนความเป็นมนุษย์: การถูกควบคุมและประเมินผลโดยระบบที่ไม่สามารถต่อรองหรืออธิบายเหตุผลได้ ทำให้แรงงานรู้สึกเหมือนกำลังทำงานกับ "เจ้านายที่เป็นกล่องดำ" (Black Box) ซึ่งส่งผลกระทบต่อสุขภาพจิตและความรู้สึกมีคุณค่าในตนเอง

 

แนวทางปฏิบัติสำหรับองค์กรและการกำกับดูแลที่มีความรับผิดชอบ

การนำ AI มาใช้อย่างยั่งยืนและเคารพต่อสิทธิมนุษยชนจำเป็นต้องอาศัยการกำกับดูแลที่แข็งแกร่งทั้งจากภาครัฐและภายในองค์กรเอง

  • กรอบการกำกับดูแล AI ของไทย: ปัจจุบัน ประเทศไทยกำลังอยู่ในช่วงเปลี่ยนผ่านจากการใช้ "กฎหมายอย่างอ่อน" (Soft Law) ไปสู่ "กฎหมายอย่างแข็ง" (Hard Law) หน่วยงานอย่างสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (องค์การมหาชน) (สพธอ.) โดยศูนย์ธรรมาภิบาลปัญญาประดิษฐ์ (AIGC) ได้ออก "แนวทางการกำกับดูแลปัญญาประดิษฐ์สำหรับผู้บริหาร (AI Governance Guideline for Executives)" เพื่อเป็นแนวทางปฏิบัติให้แก่องค์กร ขณะเดียวกัน โดยมีองค์ประกอบสำคัญ 3 ประการ ได้แก่

    1) AI Governance Structure: การกำหนดโครงสร้างการกำกับดูแล AI
    2) AI Strategy:
    การกำหนดกลยุทธ์ในการประยุกต์ใช้ AI และ
    3) AI Operation: การกำกับดูแลการปฏิบัติงานที่เกี่ยวข้องกับ ขณะเดียวกัน (ร่าง)พระราชบัญญัติว่าด้วยการส่งเสริมและสนับสนุนนวัตกรรมปัญญาประดิษฐ์แห่งประเทศไทย ก็กำลังอยู่ในกระบวนการรับฟังความคิดเห็น ซึ่งจะนำไปสู่การกำกับดูแลที่มีผลบังคับใช้ทางกฎหมายในอนาคต [11]

  • แนวทางปฏิบัติสำหรับบริษัทจดทะเบียน: องค์กรควรสร้างกรอบธรรมาภิบาล AI (AI Governance) ภายใน โดยยึดหลักการสำคัญ 4 ประการตามแนวทางของหน่วยงานสากลอย่าง OECD และแนวทางของ สพธอ. :
  • ความเป็นธรรม (Fairness): ตรวจสอบชุดข้อมูลที่ใช้สอน AI เพื่อลดอคติ และจัดให้มีมนุษย์คอยตรวจสอบ (Human-in-the-loop) การตัดสินใจที่มีความเสี่ยงสูง
  • ความเป็นส่วนตัว (Privacy): ปฏิบัติตามกฎหมาย PDPA อย่างเคร่งครัด ทำการประเมินผลกระทบด้านการคุ้มครองข้อมูลส่วนบุคคล (DPIA) ก่อนนำระบบ AI มาใช้
  • ความรับผิดชอบ (Accountability): กำหนดผู้รับผิดชอบที่ชัดเจนต่อผลลัพธ์การทำงานของ AI และสร้างกระบวนการเยียวยาผู้ที่ได้รับผลกระทบ
  • ความโปร่งใส (Transparency): สามารถอธิบายกระบวนการตัดสินใจของ AI ให้ผู้ที่เกี่ยวข้องเข้าใจได้ และแจ้งให้ผู้ใช้ทราบอย่างชัดเจนเมื่อกำลังมีปฏิสัมพันธ์กับ AI

 

 

มุมมองของผู้ลงทุน: การประเมินความเสี่ยงด้านสิทธิมนุษยชนจาก AI

สำหรับผู้ลงทุนที่ให้ความสำคัญกับการลงทุนอย่างยั่งยืน การประเมินความเสี่ยงด้านสิทธิมนุษยชนที่เกี่ยวข้องกับ AI ควรกลายเป็นส่วนหนึ่งของการวิเคราะห์ปัจจัย ESG เชิงลึก โดยสามารถใช้ชุดคำถามต่อไปนี้ในการประเมินบริษัท:

  • ด้านการกำกับดูแล (G): บริษัทมีนโยบายและคณะทำงานที่รับผิดชอบด้านการกำกับดูแล AI หรือไม่? มีการเปิดเผยข้อมูลเกี่ยวกับกลยุทธ์การบริหารความเสี่ยงด้าน AI ในรายงานประจำปี หรือแบบ 56-1 One Report หรือไม่?
  • ด้านสังคม (S): บริษัทมีกระบวนการตรวจสอบสถานะด้านสิทธิมนุษยชนอย่างรอบด้าน (Human Rights Due Diligence) ก่อนนำระบบ AI มาใช้ในกิจกรรมที่ส่งผลกระทบต่อองค์กรหรือไม่? บริษัทมีมาตรการอย่างไรในการป้องกันความเสี่ยงที่อาจเกิดขึ้นจากอคติของอัลกอริทึม? บริษัทปฏิบัติต่อแรงงานที่จัดจ้างผ่านแพลตฟอร์มออนไลน์อย่างเป็นธรรม และสอดคล้องกับหลักสิทธิแรงงานสากลหรือไม่?

 


 

บทสรุป: ความเสี่ยงจาก AI จะหายไป…ถ้าองค์กรมีโครงสร้างการกำกับดูแลที่แข็งแกร่ง

การนำ AI มาใช้ในภาคธุรกิจไทยมาพร้อมกับความเสี่ยงด้านสิทธิมนุษยชนที่สำคัญ ทั้งความเสี่ยงจากการละเมิดความเป็นส่วนตัว การเลือกปฏิบัติโดยอัลกอริทึม และการลดทอนสิทธิแรงงาน ความเสี่ยงเหล่านี้ไม่ใช่แค่ปัญหาทางจริยธรรม แต่เป็นความเสี่ยงทางกฎหมาย การเงิน และชื่อเสียง ซึ่งถือเป็น "ต้นทุนแฝง" ที่ส่งผลโดยตรงต่อความยั่งยืนขององค์กร

อย่างไรก็ตาม ความเสี่ยงเหล่านี้สามารถบริหารจัดการและควบคุมได้ หากองค์กรมี โครงสร้างบรรษัทภิบาล (Corporate Governance) ที่แข็งแกร่งเป็นรากฐานสำคัญ โครงสร้างดังกล่าวไม่ได้หมายถึงแค่นโยบายเพียงอย่างเดียว แต่หมายรวมถึงกระบวนการที่จับต้องได้ วัดผลได้ และถูกผนวกเข้ากับการดำเนินงานจริง ตั้งแต่การกำหนดให้ความเสี่ยงด้าน AI เป็นวาระของคณะกรรมการบริหารความเสี่ยง การจัดให้มีกระบวนการตรวจสอบสถานะด้านสิทธิมนุษยชน (Human Rights Due Diligence) ก่อนนำ AI มาใช้ ไปจนถึงการสร้างกลไกความรับผิดชอบที่ชัดเจนเมื่อเกิดข้อผิดพลาดขึ้น

สำหรับบริษัทจดทะเบียน การมีกรอบการกำกับดูแล AI ที่มีประสิทธิภาพ จะสร้างความได้เปรียบในการแข่งขันที่สำคัญในระยะยาว เพราะมันคือการสร้างความเชื่อมั่นให้แก่ลูกค้า ดึงดูดบุคลากรที่มีความสามารถ และแสดงให้ผู้ลงทุนเห็นถึงความสามารถในการบริหารจัดการความเสี่ยงเชิงกลยุทธ์ได้อย่างมีประสิทธิภาพ

ในขณะเดียวกัน ผู้ลงทุน ก็มีบทบาทสำคัญในการประเมินและผลักดันให้เกิดการกำกับดูแลที่ดีในองค์กร ผ่านการมีส่วนร่วมกับการดำเนินงานของบริษัท (Engagement) เช่น การตั้งคำถามที่ถูกต้องเกี่ยวกับนโยบายด้านจริยธรรม AI ในการประชุม AGMs การแสดงความเห็นเกี่ยวกับการพัฒนาทักษะของพนักงานให้เท่าทันการก้าวกระโดดของเทคโนโลยี เป็นต้น จะเป็นแรงขับเคลื่อนสำคัญที่ทำให้ตลาดทุนไทยเติบโตไปพร้อมกับนวัตกรรมที่มีความรับผิดชอบ

ท้ายที่สุดแล้ว การกำกับดูแลที่แข็งแกร่งจึงเป็นเครื่องมือสำคัญที่ช่วยให้องค์กรสามารถนำนวัตกรรม AI มาใช้สร้างการเติบโตที่ยั่งยืน โดยเปลี่ยนความเสี่ยงที่มองไม่เห็นให้กลายเป็นโอกาสในการสร้างคุณค่าให้กับผู้มีส่วนได้เสียทุกฝ่าย

 


 

รายการอ้างอิง

  1. (n.d.). ความเสี่ยงด้านความยั่งยืน หรือ “ESG Risk”. https://www.dharmniti.co.th/esg-risk/
  2. วิทยาลัยประชากรศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย. (2566). ความเสี่ยงด้านบรรษัทภิบาล. https://www2.spu.ac.th/award/34693/academic
  3. (n.d.). The Ultimate Guide to Thai PDPA Compliance. https://www.onetrust.com/blog/the-ultimate-guide-to-thai-pdpa-compliance/
  4. (n.d.). PDPA Thailand: A Comprehensive Guide for Business Compliance. https://www.sangfor.com/blog/cybersecurity/pdpa-thailand-comprehensive-guide-for-business-compliance
  5. DLA Piper. (n.d.). Data Protection Laws of the World: Thailand. https://www.dlapiperdataprotection.com/index.html?t=law&c=TH
  6. Fairness Tales. (n.d.). Case Studies: When AI and CV screening goes wrong. https://www.fairnesstales.com/p/issue-2-case-studies-when-ai-and-cv-screening-goes-wrong
  7. (n.d.). Real-Life Examples of Discriminating Artificial Intelligence. https://datatron.com/real-life-examples-of-discriminating-artificial-intelligence/
  8. Fisher Phillips. (2025, June 10). Discrimination Lawsuit Over Workday’s AI Hiring Tools Can Proceed as a Class Action: 6 Things for Employers to Know. https://www.fisherphillips.com/en/news-insights/discrimination-lawsuit-over-workdays-ai-hiring-tools-can-proceed-as-class-action-6-things.html
  9. Wanthana-smabut, A. (2025, April 30). แรงงานกับ AI : แรงงานผู้ประดิษฐ์ปัญญาและปัญญาประดิษฐ์. The 101 World. https://www.the101.world/ai-labor-rights-data-exploitation/
  10. Carnegie Endowment for International Peace. (2024, April). The Plight of Platform Workers Under Algorithmic Management in Southeast Asia. https://carnegieendowment.org/research/2024/04/the-plight-of-platform-workers-under-algorithmic-management-in-southeast-asia?lang=en
  11. Electronic Transactions Development Agency. (2023). Thailand’s AI governance guideline for executives. ETDA. https://www.etda.or.th/getattachment/Our-Service/AIGC/Research-and-Recommendation/Thailand%E2%80%99๗s-AI-Governance-Guideline-for-Executive_2023.pdf.aspx?lang=th-TH
  12. Nation Thailand. (2025, June 2). Thailand's AI bill prioritises responsible use and rights protection. https://www.nationthailand.com/business/tech/40050970
  13. (n.d.). OECD AI Principles. https://www.oecd.org/en/topics/ai-principles.html
  14. Complete AI Training. (2024, May 29). Thai businesses accelerate AI adoption as talent shortage looms. https://completeaitraining.com/news/thai-businesses-accelerate-ai-adoption-as-talent-shortage/
  15. Aree Technology. (n.d.). การใช้ AI และ Machine Learning ในการสรรหาและคัดเลือกบุคลากร. https://areetechnology.com/newblog/the-use-of-ai-and-machine-learning-in-recruitment-and-selection-of-personnel/
  16. Tilleke & Gibbins. (2024, August 23). Landmark Fine Imposed Under Thailand’s Personal Data Protection Act. https://www.tilleke.com/insights/landmark-fine-imposed-under-thailands-personal-data-protection-act/
  17. (2024, July 25). Thailand: PDPC investigates breach of government scholarship students' data. https://www.dataguidance.com/news/thailand-pdpc-investigates-breach-government-scholarship-students-data
  18. HR Morning. (2025). AI hiring discrimination: Workday lawsuit moves forward. https://www.hrmorning.com/news/ai-hiring-discrimination-workday/
  19. Feminist AI. (2022). The role of AI in marketing: Gender bias problems in Thailand. https://feministai.pubpub.org/pub/qbkkxes2
  20. Dreamteam Payroll Outsource. (n.d.). การใช้ AI ในกระบวนการสรรหาบุคลากร. https://dreamteampayrolloutsource.co.th/using-ai-in-the-recruitment-process/

 

 

 

 

บทความเพิ่มเติม

📍ทุกเส้นทางมุ่งหน้าสู่ Net Zero: ธุรกิจไทยจะก้าวไปถึงจุดนั้นได้อย่างไร?

👉 Click เพื่ออ่านบทความ

📍ESG ซ่อนอยู่ตรงไหนในงบการเงิน

👉 Click เพื่ออ่านบทความ

 

📍คัดหุ้นนอกยังไง เมื่อสถานการณ์โลกสุดปั่นป่วน

👉 Click เพื่ออ่านบทความ

 

📍AI ช่วยยกระดับการจัดการข้อมูลด้านความยั่งยืน: เตรียมความพร้อมองค์กรสู่ Net Zero ด้วย ESG Management Platform

👉 Click เพื่ออ่านบทความ

📍การเปิดเผยข้อมูลและการทำรายงานด้านความยั่งยืนที่ ‘น่าเชื่อถือ’ กับความเชื่อมั่นในภาคตลาดทุนไทย

👉 Click เพื่ออ่านบทความ

📍คาร์บอนฟุตพริ้นท์องค์กร (CFO): จุดเริ่มต้นธุรกิจไทย เตรียมรับมือ EU CBAM และ CSRD

👉 Click เพื่ออ่านบทความ

📍Scope 3 Emissions คืออะไร? แนวทางจัดการสำหรับธุรกิจไทยเพื่อความได้เปรียบทางการแข่งขัน

👉 Click เพื่ออ่านบทความ

📍การดูแลพนักงานไม่ใช่แค่ “ค่าใช้จ่าย” แต่คือการลงทุนใน “สินทรัพย์ที่มีคุณภาพ”

👉 Click เพื่ออ่านบทความ

📍(ร่าง) พ.ร.บ. Climate Change, Carbon Tax และ TH-ETS กำลังจะมา: พลิกกฎเกมธุรกิจไทยสู่ความได้เปรียบในเศรษฐกิจคาร์บอนต่ำ

👉 Click เพื่ออ่านบทความ

 

📍Climate Risk และ Scenario Analysis: แนวทางบริหารความเสี่ยงธุรกิจไทย

👉 Click เพื่ออ่านบทความ