Topic
ความเสี่ยงด้านสิทธิมนุษยชนในยุค AI: ต้นทุนแฝงและผลกระทบที่องค์กรต้องรับมือ
ความเสี่ยงด้านสิทธิมนุษยชนในยุค AI: ต้นทุนแฝงและผลกระทบที่องค์กรต้องรับมือ
โดย ฝ่ายพัฒนาความรู้ด้านความยั่งยืน ตลาดหลักทรัพย์แห่งประเทศไทย
สิ่งที่คุณจะได้รับจากบทความนี้ (Highlights):
- การนำ AI มาใช้ในองค์กรอาจเป็นประเด็นสิทธิมนุษยชน: ตั้งแต่การละเมิดความเป็นส่วนตัว การเลือกปฏิบัติโดยอัลกอริทึม การลดทอนสิทธิแรงงาน ซึ่งล้วนเป็นความเสี่ยงที่มีนัยสำคัญต่อการดำเนินธุรกิจในปัจจุบัน [1,2,3]
- ความเป็นส่วนตัวเป็นเรื่องอ่อนไหว: AI ซึ่งทำงานโดยอาศัยข้อมูลมหาศาล สร้างความท้าทายต่อการปฏิบัติตาม พ.ร.บ. คุ้มครองข้อมูลส่วนบุคคลฯ (PDPA) ทั้งในมิติการขอความยินยอม การจำกัดวัตถุประสงค์ และการให้สิทธิแก่เจ้าของข้อมูล ซึ่งถือเป็นความเสี่ยงทางกฎหมายที่องค์กรต้องให้ความสำคัญสูงสุด [4, 5, 6]
- การเลือกปฏิบัติรูปแบบใหม่: AI ที่เรียนรู้จากข้อมูลในอดีตอาจสร้างผลลัพธ์ที่เลือกปฏิบัติต่อคนบางกลุ่มโดยไม่เจตนา โดยเฉพาะในการจ้างงานและการให้บริการทางการเงิน ซึ่งนับเป็นความเสี่ยงด้านชื่อเสียงและความเท่าเทียมที่กระทบต่อความสามารถในการแข่งขันขององค์กรโดยตรง [7, 8, 9]
- สิทธิแรงงานในยุคดิจิทัล: การใช้ AI บริหารจัดการพนักงาน โดยเฉพาะระบบการจ้างงานผ่านแพลตฟอร์ม นำไปสู่การสอดส่องที่เข้มข้น ความกดดันสูงขึ้น และการลดทอนสิทธิแรงงานขั้นพื้นฐาน ซึ่งอาจส่งผลต่อสุขภาวะพนักงานและความยั่งยืนองค์กร [10, 11]
- การกำกับดูแล AI คือคำตอบ: กรอบการกำกับดูแล AI (AI Governance) ที่แข็งแกร่ง การตรวจสอบสถานะด้านสิทธิมนุษยชน (Human Rights Due Diligence) ก่อนใช้ AI และการเปิดเผยข้อมูลอย่างโปร่งใส คือแนวทางพื้นฐานที่บริษัทจดทะเบียนต้องปฏิบัติ และเป็นสิ่งที่ผู้ลงทุนควรใช้ประเมินการบริหารจัดการความเสี่ยงของบริษัท
บทนำ: ความเสี่ยงด้านสิทธิมนุษยชนและต้นทุนแอบแฝงจากการนำ AI มาใช้
การนำปัญญาประดิษฐ์ (AI) มาอำนวยความสะดวกกิจกรรมต่าง ๆ ของมนุษย์ รวมถึงการเพิ่มประสิทธิภาพการดำเนินงานขององค์กรไทยมีแนวโน้มสูงขึ้นอย่างมีนัยสำคัญ ข้อมูลล่าสุดจากสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) ชี้ว่าองค์กรที่วางแผนจะนำ AI มาใช้มีสัดส่วนสูงถึง 73.3% ในปี 2567 เพิ่มขึ้นจาก 56.6% ในปีก่อนหน้า [14] การเปลี่ยนแปลงนี้ถูกขับเคลื่อนด้วยเป้าหมายในการเพิ่มประสิทธิภาพและสร้างความได้เปรียบในการแข่งขัน แต่เบื้องหลังประโยชน์ทางธุรกิจที่ชัดเจนเหล่านี้ คือความเสี่ยงด้านสิทธิมนุษยชนที่ซับซ้อนและมักถูกมองข้าม ซึ่งมาพร้อมกับ "ต้นทุนแฝง" ที่อาจส่งผลกระทบอย่างรุนแรงต่อองค์กร
ความเสี่ยงเหล่านี้เป็นประเด็นเชิงโครงสร้างที่ต้องถูกพิจารณาภายใต้โครงสร้างบรรษัทภิบาล (Corporate Governance) และกระบวนการบริหารความเสี่ยงขององค์กร ตั้งแต่การละเมิดความเป็นส่วนตัวของข้อมูล การสร้างระบบคัดกรองผู้สมัครงานที่เลือกปฏิบัติโดยไม่เจตนา ไปจนถึงการเปลี่ยนแปลงรูปแบบการจ้างงานที่อาจลดทอนสิทธิขั้นพื้นฐานของแรงงาน การทำความเข้าใจและบริหารจัดการความเสี่ยงเหล่านี้ จึงเป็นปัจจัยสำคัญที่ส่งผลต่อความยั่งยืนของกิจการ ความเชื่อมั่นของผู้มีส่วนได้เสีย และมูลค่าขององค์กรในระยะยาว
บทความนี้จะวิเคราะห์ความเสี่ยงด้านสิทธิมนุษยชน (Human Right Risk) ที่สำคัญ 3 ประเด็น ซึ่งอาจมาพร้อมกับการใช้ AI
และยกตัวอย่างแนวทางปฏิบัติสำหรับองค์กรเพื่อรับมือกับความก้าวหน้าของเทคโนโลยีนี้อย่างมีความรับผิดชอบ
ข้อมูลส่วนบุคคล: เมื่อ AI ท้าทายกฎหมาย PDPA
หัวใจสำคัญของการทำงานของ AI คือข้อมูล และบ่อยครั้งที่ข้อมูลเหล่านั้นเป็น ‘ข้อมูลส่วนบุคคล’ ซึ่งอยู่ภายใต้การคุ้มครองของพระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคล พ.ศ. 2562 (PDPA) [4] กฎหมายฉบับนี้มีผลบังคับใช้เต็มรูปแบบแล้วตั้งแต่ปี พ.ศ. 2565 โดยได้วางหลักการหลายประการที่การทำงานของ AI อาจเข้าข่ายละเมิดได้โดยง่าย [5, 6]
- ความท้าทายต่อหลักการขอความยินยอมและจำกัดวัตถุประสงค์: PDPA กำหนดให้การเก็บรวบรวม ใช้ หรือเปิดเผยข้อมูลส่วนบุคคลต้องได้รับความยินยอมจากเจ้าของข้อมูลสำหรับวัตถุประสงค์ที่แจ้งไว้อย่างชัดเจนและเฉพาะเจาะจง [4] แต่ AI โดยเฉพาะ Machine Learning Model มักถูกฝึกฝนด้วยชุดข้อมูลขนาดมหาศาลที่อาจถูกรวบรวมมาเพื่อวัตถุประสงค์อื่นในอดีต การนำข้อมูลเก่าของลูกค้าหรือพนักงานมาใช้ฝึก AI โดยไม่ได้รับความยินยอมต่อวัตถุประสงค์ใหม่อย่างชัดเจน จึงมีความเสี่ยงสูงที่จะขัดต่อหลักการของ PDPA
- การสอดส่องดูแลในที่ทำงาน (Workplace Surveillance): การใช้ AI เพื่อติดตามและประเมินผลการทำงานของพนักงานแบบเรียลไทม์กำลังเป็นที่นิยมมากขึ้น เทคโนโลยีเหล่านี้อาจเก็บข้อมูลพฤติกรรมการทำงานทุกฝีก้าว ตั้งแต่การใช้คอมพิวเตอร์ไปจนถึงการสื่อสารภายใน ซึ่งหากไม่มีการแจ้งวัตถุประสงค์ที่ชัดเจนและได้รับความยินยอมอย่างถูกต้อง อาจเข้าข่ายการเก็บข้อมูลส่วนบุคคลเกินความจำเป็นและละเมิดสิทธิความเป็นส่วนตัวของพนักงานได้ [15]
- กรณีศึกษาการบังคับใช้ PDPA ในไทย: คณะกรรมการคุ้มครองข้อมูลส่วนบุคคล (PDPC) ได้แสดงให้เห็นถึงการบังคับใช้กฎหมายอย่างจริงจังแล้ว
- กรณีศึกษาที่สำคัญหนึ่ง คือการสั่งปรับบริษัทเอกชนแห่งหนึ่งเป็นเงินหลักล้านบาท จากความล้มเหลวในการมีมาตรการรักษาความปลอดภัยของข้อมูลที่ไม่เพียงพอ จนทำให้ข้อมูลลูกค้ารั่วไหล [16]
- นอกจากนี้ยังมีกรณีที่ PDPC เข้าไปตรวจสอบการรั่วไหลของข้อมูลนักเรียนทุนรัฐบาลไทย ซึ่งถูกดึงข้อมูลไปแสดงผลผ่านระบบค้นหาของ Microsoft Bing ที่ใช้ AI [17]
กรณีเหล่านี้เป็นเครื่องยืนยันว่าความเสี่ยงด้านข้อมูลที่เกี่ยวข้องกับ AI นั้นมีต้นทุนทางกฎหมายและชื่อเสียงที่สูงมาก
อคติของอัลกอริทึม (Algorithmic Bias): การเลือกปฏิบัติที่มองไม่เห็น
หนึ่งในความเสี่ยงด้านสิทธิมนุษยชนที่น่ากังวลที่สุดคือ "อคติของอัลกอริทึม" ซึ่งหมายถึง การที่ระบบ AI สร้างผลลัพธ์ที่ไม่เป็นธรรม หรือเลือกปฏิบัติต่อบุคคลบางกลุ่มอย่างเป็นระบบ ปัญหานี้ไม่ได้เกิดจากความผิดพลาดของโค้ด แต่เกิดจากข้อมูลที่ใช้สอน AI มีความไม่เที่ยง หรือยังไม่ได้กรองอคติออกก่อนนำมาใช้ [7, 8, 9]
- กรณีศึกษา Amazon กับเครื่องมือคัดกรองใบสมัครงาน: ในปี 2558 Amazon ต้องยกเลิกโครงการพัฒนาระบบ AI เพื่อคัดกรองใบสมัครงาน หลังจากพบว่าระบบมีอคติต่อผู้สมัครเพศหญิงอย่างชัดเจน เนื่องจาก AI ถูกสอนจากข้อมูลประวัติการรับสมัครงานย้อนหลัง 10 ปี ซึ่งส่วนใหญ่เป็นเพศชาย ทำให้ระบบเรียนรู้ที่จะลดคะแนนใบสมัครที่มีคำว่า "ผู้หญิง" (เช่น กัปตันชมรมหมากรุกหญิง เป็นต้น) และให้คะแนนผู้ที่จบจากมหาวิทยาลัยหญิงล้วนต่ำกว่าปกติ [7]
- กรณีศึกษา Workday กับข้อกล่าวหาประเด็นการเลือกปฏิบัติ: Workday ผู้ให้บริการซอฟต์แวร์ด้านทรัพยากรบุคคล (HR) รายใหญ่ กำลังเผชิญกับการฟ้องร้องแบบกลุ่มในประเทศสหรัฐอเมริกา โดยโจทก์อ้างว่าเครื่องมือคัดกรองผู้สมัครของบริษัทมีการเลือกปฏิบัติต่อผู้สมัครที่เป็นกลุ่มคนผิวสี ผู้ที่มีอายุมากกว่า 40 ปี และผู้พิการ [8] กรณีนี้ชี้ให้เห็นถึงความเสี่ยงทางกฎหมายที่ผู้พัฒนา AI อาจต้องรับผิดในฐานะ "ตัวแทน" ของนายจ้าง
สำหรับประเทศไทย แม้จะยังไม่มีข้อพิพาทที่ถูกเปิดเผยต่อสาธารณะ แต่การเลือกปฏิบัติโดย AI เกิดขึ้นแล้วจริง โดยเฉพาะในอุตสาหกรรมการเงินที่เริ่มใช้ AI ในการพิจารณาสินเชื่อบุคคล หรือในกระบวนการสรรหาบุคลากรขององค์กรขนาดใหญ่ [19, 20] เมื่อเกิดการเลือกปฏิบัติขึ้น ผลที่ตามมาคือความเสียหายต่อชื่อเสียงองค์กร การสูญเสียบุคลากรที่มีความสามารถ (Talents) ไปจนถึงการฟ้องร้องทางกฎหมายก็เป็นได้
สิทธิแรงงานในยุคดิจิทัล: ความท้าทายจาก Algorithmic Management
การใช้ AI ในการบริหารจัดการพนักงาน หรือที่เรียกว่า "Algorithmic Management" กำลังเปลี่ยนแปลงความสัมพันธ์ระหว่างนายจ้างและลูกจ้าง โดยเฉพาะในกลุ่มแรงงานชั่วคราวที่มีการจัดจ้างผ่านแพลตฟอร์มออนไลน์ต่าง ๆ
- กรณีศึกษาไรเดอร์ในประเทศไทย: แรงงานไรเดอร์ของแพลตฟอร์มส่งอาหารในไทย เช่น Grab Lineman เป็นต้น ถูกบริหารจัดการโดยอัลกอริทึมที่ทำหน้าที่แทนผู้จัดการที่เป็นมนุษย์ ตั้งแต่การจ่ายงาน การกำหนดค่าตอบแทน การประเมินผลการทำงาน ไปจนถึงการลงโทษผ่านระบบคะแนน
- ผลกระทบต่อสิทธิแรงงาน: ระบบนี้สร้างแรงกดดันมหาศาลต่อไรเดอร์ จากการศึกษาพบว่าไรเดอร์จำนวนมากต้องทำงาน 12-14 ชั่วโมงต่อวันเพื่อให้มีรายได้เพียงพอ และกว่า 30% เคยประสบอุบัติเหตุ โดยส่วนหนึ่งยอมรับว่าต้องขับขี่อย่างเสี่ยงอันตรายเพื่อทำเวลาให้ทันตามที่อัลกอริทึมกำหนด นอกจากนี้ การที่แพลตฟอร์มจัดประเภทไรเดอร์เป็น "พาร์ทเนอร์" หรือ "ผู้รับจ้างอิสระ" ทำให้พวกเขาไม่ได้รับการคุ้มครองตามกฎหมายแรงงานขั้นพื้นฐาน เช่น ค่าแรงขั้นต่ำ, ประกันสังคม, หรือวันหยุดพักผ่อน ซึ่งเป็นการผลักภาระความเสี่ยงทางธุรกิจทั้งหมดไปให้ตัวแรงงาน
- การควบคุมที่เข้มข้นและความกดดันที่สูงขึ้น: แพลตฟอร์มส่งอาหารในประเทศไทยใช้ AI ในการมอบหมายงาน ประเมินประสิทธิภาพ และกำหนดค่าตอบแทนให้แก่ไรเดอร์แบบเรียลไทม์ [10] การบริหารจัดการด้วยอัลกอริทึมนี้สร้างแรงกดดันให้ไรเดอร์ต้องทำงานแข่งกับเวลา ขาดอำนาจในการต่อรอง และเผชิญกับความไม่แน่นอนของรายได้ ซึ่งส่งผลกระทบโดยตรงต่อสุขภาวะทางกายและใจ [11]
- การลดทอนความเป็นมนุษย์: การถูกควบคุมและประเมินผลโดยระบบที่ไม่สามารถต่อรองหรืออธิบายเหตุผลได้ ทำให้แรงงานรู้สึกเหมือนกำลังทำงานกับ "เจ้านายที่เป็นกล่องดำ" (Black Box) ซึ่งส่งผลกระทบต่อสุขภาพจิตและความรู้สึกมีคุณค่าในตนเอง
แนวทางปฏิบัติสำหรับองค์กรและการกำกับดูแลที่มีความรับผิดชอบ
การนำ AI มาใช้อย่างยั่งยืนและเคารพต่อสิทธิมนุษยชนจำเป็นต้องอาศัยการกำกับดูแลที่แข็งแกร่งทั้งจากภาครัฐและภายในองค์กรเอง
- กรอบการกำกับดูแล AI ของไทย: ปัจจุบัน ประเทศไทยกำลังอยู่ในช่วงเปลี่ยนผ่านจากการใช้ "กฎหมายอย่างอ่อน" (Soft Law) ไปสู่ "กฎหมายอย่างแข็ง" (Hard Law) หน่วยงานอย่างสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (องค์การมหาชน) (สพธอ.) โดยศูนย์ธรรมาภิบาลปัญญาประดิษฐ์ (AIGC) ได้ออก "แนวทางการกำกับดูแลปัญญาประดิษฐ์สำหรับผู้บริหาร (AI Governance Guideline for Executives)" เพื่อเป็นแนวทางปฏิบัติให้แก่องค์กร ขณะเดียวกัน โดยมีองค์ประกอบสำคัญ 3 ประการ ได้แก่
1) AI Governance Structure: การกำหนดโครงสร้างการกำกับดูแล AI
2) AI Strategy: การกำหนดกลยุทธ์ในการประยุกต์ใช้ AI และ
3) AI Operation: การกำกับดูแลการปฏิบัติงานที่เกี่ยวข้องกับ ขณะเดียวกัน (ร่าง)พระราชบัญญัติว่าด้วยการส่งเสริมและสนับสนุนนวัตกรรมปัญญาประดิษฐ์แห่งประเทศไทย ก็กำลังอยู่ในกระบวนการรับฟังความคิดเห็น ซึ่งจะนำไปสู่การกำกับดูแลที่มีผลบังคับใช้ทางกฎหมายในอนาคต [11] - แนวทางปฏิบัติสำหรับบริษัทจดทะเบียน: องค์กรควรสร้างกรอบธรรมาภิบาล AI (AI Governance) ภายใน โดยยึดหลักการสำคัญ 4 ประการตามแนวทางของหน่วยงานสากลอย่าง OECD และแนวทางของ สพธอ. :
- ความเป็นธรรม (Fairness): ตรวจสอบชุดข้อมูลที่ใช้สอน AI เพื่อลดอคติ และจัดให้มีมนุษย์คอยตรวจสอบ (Human-in-the-loop) การตัดสินใจที่มีความเสี่ยงสูง
- ความเป็นส่วนตัว (Privacy): ปฏิบัติตามกฎหมาย PDPA อย่างเคร่งครัด ทำการประเมินผลกระทบด้านการคุ้มครองข้อมูลส่วนบุคคล (DPIA) ก่อนนำระบบ AI มาใช้
- ความรับผิดชอบ (Accountability): กำหนดผู้รับผิดชอบที่ชัดเจนต่อผลลัพธ์การทำงานของ AI และสร้างกระบวนการเยียวยาผู้ที่ได้รับผลกระทบ
- ความโปร่งใส (Transparency): สามารถอธิบายกระบวนการตัดสินใจของ AI ให้ผู้ที่เกี่ยวข้องเข้าใจได้ และแจ้งให้ผู้ใช้ทราบอย่างชัดเจนเมื่อกำลังมีปฏิสัมพันธ์กับ AI
มุมมองของผู้ลงทุน: การประเมินความเสี่ยงด้านสิทธิมนุษยชนจาก AI
สำหรับผู้ลงทุนที่ให้ความสำคัญกับการลงทุนอย่างยั่งยืน การประเมินความเสี่ยงด้านสิทธิมนุษยชนที่เกี่ยวข้องกับ AI ควรกลายเป็นส่วนหนึ่งของการวิเคราะห์ปัจจัย ESG เชิงลึก โดยสามารถใช้ชุดคำถามต่อไปนี้ในการประเมินบริษัท:
- ด้านการกำกับดูแล (G): บริษัทมีนโยบายและคณะทำงานที่รับผิดชอบด้านการกำกับดูแล AI หรือไม่? มีการเปิดเผยข้อมูลเกี่ยวกับกลยุทธ์การบริหารความเสี่ยงด้าน AI ในรายงานประจำปี หรือแบบ 56-1 One Report หรือไม่?
- ด้านสังคม (S): บริษัทมีกระบวนการตรวจสอบสถานะด้านสิทธิมนุษยชนอย่างรอบด้าน (Human Rights Due Diligence) ก่อนนำระบบ AI มาใช้ในกิจกรรมที่ส่งผลกระทบต่อองค์กรหรือไม่? บริษัทมีมาตรการอย่างไรในการป้องกันความเสี่ยงที่อาจเกิดขึ้นจากอคติของอัลกอริทึม? บริษัทปฏิบัติต่อแรงงานที่จัดจ้างผ่านแพลตฟอร์มออนไลน์อย่างเป็นธรรม และสอดคล้องกับหลักสิทธิแรงงานสากลหรือไม่?
บทสรุป: ความเสี่ยงจาก AI จะหายไป…ถ้าองค์กรมีโครงสร้างการกำกับดูแลที่แข็งแกร่ง
การนำ AI มาใช้ในภาคธุรกิจไทยมาพร้อมกับความเสี่ยงด้านสิทธิมนุษยชนที่สำคัญ ทั้งความเสี่ยงจากการละเมิดความเป็นส่วนตัว การเลือกปฏิบัติโดยอัลกอริทึม และการลดทอนสิทธิแรงงาน ความเสี่ยงเหล่านี้ไม่ใช่แค่ปัญหาทางจริยธรรม แต่เป็นความเสี่ยงทางกฎหมาย การเงิน และชื่อเสียง ซึ่งถือเป็น "ต้นทุนแฝง" ที่ส่งผลโดยตรงต่อความยั่งยืนขององค์กร
อย่างไรก็ตาม ความเสี่ยงเหล่านี้สามารถบริหารจัดการและควบคุมได้ หากองค์กรมี โครงสร้างบรรษัทภิบาล (Corporate Governance) ที่แข็งแกร่งเป็นรากฐานสำคัญ โครงสร้างดังกล่าวไม่ได้หมายถึงแค่นโยบายเพียงอย่างเดียว แต่หมายรวมถึงกระบวนการที่จับต้องได้ วัดผลได้ และถูกผนวกเข้ากับการดำเนินงานจริง ตั้งแต่การกำหนดให้ความเสี่ยงด้าน AI เป็นวาระของคณะกรรมการบริหารความเสี่ยง การจัดให้มีกระบวนการตรวจสอบสถานะด้านสิทธิมนุษยชน (Human Rights Due Diligence) ก่อนนำ AI มาใช้ ไปจนถึงการสร้างกลไกความรับผิดชอบที่ชัดเจนเมื่อเกิดข้อผิดพลาดขึ้น
สำหรับบริษัทจดทะเบียน การมีกรอบการกำกับดูแล AI ที่มีประสิทธิภาพ จะสร้างความได้เปรียบในการแข่งขันที่สำคัญในระยะยาว เพราะมันคือการสร้างความเชื่อมั่นให้แก่ลูกค้า ดึงดูดบุคลากรที่มีความสามารถ และแสดงให้ผู้ลงทุนเห็นถึงความสามารถในการบริหารจัดการความเสี่ยงเชิงกลยุทธ์ได้อย่างมีประสิทธิภาพ
ในขณะเดียวกัน ผู้ลงทุน ก็มีบทบาทสำคัญในการประเมินและผลักดันให้เกิดการกำกับดูแลที่ดีในองค์กร ผ่านการมีส่วนร่วมกับการดำเนินงานของบริษัท (Engagement) เช่น การตั้งคำถามที่ถูกต้องเกี่ยวกับนโยบายด้านจริยธรรม AI ในการประชุม AGMs การแสดงความเห็นเกี่ยวกับการพัฒนาทักษะของพนักงานให้เท่าทันการก้าวกระโดดของเทคโนโลยี เป็นต้น จะเป็นแรงขับเคลื่อนสำคัญที่ทำให้ตลาดทุนไทยเติบโตไปพร้อมกับนวัตกรรมที่มีความรับผิดชอบ
ท้ายที่สุดแล้ว การกำกับดูแลที่แข็งแกร่งจึงเป็นเครื่องมือสำคัญที่ช่วยให้องค์กรสามารถนำนวัตกรรม AI มาใช้สร้างการเติบโตที่ยั่งยืน โดยเปลี่ยนความเสี่ยงที่มองไม่เห็นให้กลายเป็นโอกาสในการสร้างคุณค่าให้กับผู้มีส่วนได้เสียทุกฝ่าย
รายการอ้างอิง
- (n.d.). ความเสี่ยงด้านความยั่งยืน หรือ “ESG Risk”. https://www.dharmniti.co.th/esg-risk/
- วิทยาลัยประชากรศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย. (2566). ความเสี่ยงด้านบรรษัทภิบาล. https://www2.spu.ac.th/award/34693/academic
- (n.d.). The Ultimate Guide to Thai PDPA Compliance. https://www.onetrust.com/blog/the-ultimate-guide-to-thai-pdpa-compliance/
- (n.d.). PDPA Thailand: A Comprehensive Guide for Business Compliance. https://www.sangfor.com/blog/cybersecurity/pdpa-thailand-comprehensive-guide-for-business-compliance
- DLA Piper. (n.d.). Data Protection Laws of the World: Thailand. https://www.dlapiperdataprotection.com/index.html?t=law&c=TH
- Fairness Tales. (n.d.). Case Studies: When AI and CV screening goes wrong. https://www.fairnesstales.com/p/issue-2-case-studies-when-ai-and-cv-screening-goes-wrong
- (n.d.). Real-Life Examples of Discriminating Artificial Intelligence. https://datatron.com/real-life-examples-of-discriminating-artificial-intelligence/
- Fisher Phillips. (2025, June 10). Discrimination Lawsuit Over Workday’s AI Hiring Tools Can Proceed as a Class Action: 6 Things for Employers to Know. https://www.fisherphillips.com/en/news-insights/discrimination-lawsuit-over-workdays-ai-hiring-tools-can-proceed-as-class-action-6-things.html
- Wanthana-smabut, A. (2025, April 30). แรงงานกับ AI : แรงงานผู้ประดิษฐ์ปัญญาและปัญญาประดิษฐ์. The 101 World. https://www.the101.world/ai-labor-rights-data-exploitation/
- Carnegie Endowment for International Peace. (2024, April). The Plight of Platform Workers Under Algorithmic Management in Southeast Asia. https://carnegieendowment.org/research/2024/04/the-plight-of-platform-workers-under-algorithmic-management-in-southeast-asia?lang=en
- Electronic Transactions Development Agency. (2023). Thailand’s AI governance guideline for executives. ETDA. https://www.etda.or.th/getattachment/Our-Service/AIGC/Research-and-Recommendation/Thailand%E2%80%99๗s-AI-Governance-Guideline-for-Executive_2023.pdf.aspx?lang=th-TH
- Nation Thailand. (2025, June 2). Thailand's AI bill prioritises responsible use and rights protection. https://www.nationthailand.com/business/tech/40050970
- (n.d.). OECD AI Principles. https://www.oecd.org/en/topics/ai-principles.html
- Complete AI Training. (2024, May 29). Thai businesses accelerate AI adoption as talent shortage looms. https://completeaitraining.com/news/thai-businesses-accelerate-ai-adoption-as-talent-shortage/
- Aree Technology. (n.d.). การใช้ AI และ Machine Learning ในการสรรหาและคัดเลือกบุคลากร. https://areetechnology.com/newblog/the-use-of-ai-and-machine-learning-in-recruitment-and-selection-of-personnel/
- Tilleke & Gibbins. (2024, August 23). Landmark Fine Imposed Under Thailand’s Personal Data Protection Act. https://www.tilleke.com/insights/landmark-fine-imposed-under-thailands-personal-data-protection-act/
- (2024, July 25). Thailand: PDPC investigates breach of government scholarship students' data. https://www.dataguidance.com/news/thailand-pdpc-investigates-breach-government-scholarship-students-data
- HR Morning. (2025). AI hiring discrimination: Workday lawsuit moves forward. https://www.hrmorning.com/news/ai-hiring-discrimination-workday/
- Feminist AI. (2022). The role of AI in marketing: Gender bias problems in Thailand. https://feministai.pubpub.org/pub/qbkkxes2
- Dreamteam Payroll Outsource. (n.d.). การใช้ AI ในกระบวนการสรรหาบุคลากร. https://dreamteampayrolloutsource.co.th/using-ai-in-the-recruitment-process/
บทความเพิ่มเติม
📍ทุกเส้นทางมุ่งหน้าสู่ Net Zero: ธุรกิจไทยจะก้าวไปถึงจุดนั้นได้อย่างไร? |
📍AI ช่วยยกระดับการจัดการข้อมูลด้านความยั่งยืน: เตรียมความพร้อมองค์กรสู่ Net Zero ด้วย ESG Management Platform 📍การเปิดเผยข้อมูลและการทำรายงานด้านความยั่งยืนที่ ‘น่าเชื่อถือ’ กับความเชื่อมั่นในภาคตลาดทุนไทย 📍คาร์บอนฟุตพริ้นท์องค์กร (CFO): จุดเริ่มต้นธุรกิจไทย เตรียมรับมือ EU CBAM และ CSRD |
📍Scope 3 Emissions คืออะไร? แนวทางจัดการสำหรับธุรกิจไทยเพื่อความได้เปรียบทางการแข่งขัน 📍การดูแลพนักงานไม่ใช่แค่ “ค่าใช้จ่าย” แต่คือการลงทุนใน “สินทรัพย์ที่มีคุณภาพ” 📍(ร่าง) พ.ร.บ. Climate Change, Carbon Tax และ TH-ETS กำลังจะมา: พลิกกฎเกมธุรกิจไทยสู่ความได้เปรียบในเศรษฐกิจคาร์บอนต่ำ
|
📍Climate Risk และ Scenario Analysis: แนวทางบริหารความเสี่ยงธุรกิจไทย ![]()
|