top of page

ส่องกฎหมาย AI ทั่วโลก เพื่อเทคโนโลยีปลอดภัย โปร่งใส ไม่เลือกปฏิบัติ



Summary

  • การพัฒนาและการเติบโตของ AI ในอุตสาหกรรมต่าง ๆ ทำให้เกิดคำถามถึงการควบคุม AI ที่เป็นกฎระเบียบข้อบังคับอย่างเป็นรูปธรรมและชัดเจน

  • ปี 2022 กฎหมาย AI ที่ผ่านการเห็นชอบจากองค์กรนิติบัญญัติทั่วโลกอยู่ที่ 37 ฉบับ

  • ส่วนใหญ่อยู่ในระหว่างการพิจารณาเป็นข้อบังคับ และมีอีกจำนวนมากที่ใช้เป็นเพียงแนวทางการกำกับดูแล แต่ไม่ได้บังคับให้ต้องปฏิบัติตาม

  • หลายประเทศเห็นตรงกันว่าการกำกับดูแล AI ควรเป็นการส่งเสริม และผลักดันให้เกิดการพัฒนามากกว่าควบคุมและขวางกั้นเทคโนโลยี

  • การกำกับดูแลนี้ ไม่ว่าจะเป็นกฎหมายหรือการขอความร่วมมือก็เพื่อให้แน่ใจว่าเทคโนโลยีนั้นปลอดภัย โปร่งใส เคารพในความเป็นส่วนตัว และไม่ก่อให้เกิดการอคติและเลือกปฏิบัติ

__________________________________________________________________________________


การพัฒนาและการเติบโตของ AI ในอุตสาหกรรมต่าง ๆ ทำให้เกิดคำถามถึงการควบคุม AI ที่เป็นกฎระเบียบข้อบังคับอย่างเป็นรูปธรรมและชัดเจน ซึ่งที่ผ่านมามีหลายประเทศได้มีความพยายามในการผ่านร่างกฎหมายเกี่ยวกับ AI มาโดยตลอด และเริ่มมีการตอบสนองเกี่ยวกับการพัฒนากฎหมายและข้อบังคับในช่วงไม่กี่ปีมานี้ ซึ่ง รายงาน AI Index Report 2023 ของมหาวิทยาลัยสแตนฟอร์ดแสดงให้เห็นว่าในปี 2022 องค์กรนิติบัญญัติใน 127 ประเทศทั่วโลก ได้อนุมัติกฎหมายที่มีคำว่า "Artificial Intelligence" ไปแล้ว 37 ฉบับ โดยมีสหรัฐอเมริกาเป็นผู้นำในการผลักดันกฎระเบียบซึ่งมีกฎหมายที่ผ่านการพิจารณาไปแล้ว 9 ฉบับ


AI Index Report 2023 แสดงจำนวนกฎหมาย AI ที่ผ่านการอนุมติทั่วโลก

ที่มา: https://hai.stanford.edu/


Tech By True Digital พาไปส่องกฎหมายที่เกี่ยวข้องกับ AI จากทั่วโลกรวมถึงประเทศไทย ว่าที่ไหนมีการควบคุม AI อย่างไรบ้าง


สหภาพยุโรป


ในปี 2021 สหภาพยุโรปรายงานการใช้ AI ในองค์กรธุรกิจว่า องค์กรขนาดเล็กมีการใช้ AI ถึง 6% ตามด้วย 13% ในองค์กรขนาดกลางและ 28% ในองค์กรขนาดใหญ่ โดยความแตกต่างในการใช้งานมีเหตุผลตั้งแต่ความซับซ้อนของเทคโนโลยีในการนำมาใช้งาน ความต้องการลดต้นทุนการผลิต ไปจนถึงต้นทุนของเทคโนโลยี AI ที่นำมาใช้ ซึ่งตัวเลขจากรายงานนี้เอง แสดงให้เห็นว่าสหภาพยุโรปมีเป้าหมายในการใช้เทคโนโลยี AI เพื่อประโยชน์ในทางเศรษฐกิจและสังคม ในขณะเดียวกันก็มีความมุ่งมั่นในการหาสมดุลของการใช้เทคโนโลยีนี้ด้วยการมีกฎหมายที่เกี่ยวข้อง อาทิ


The Artificial Intelligence Act (E.U. AI Act)

E.U. AI Act เป็นกฎหมายของสหภาพยุโรปที่เกี่ยวกับ AI โดยเฉพาะ และจะเป็นกฎหมายฉบับแรกของโลกที่จะถูกบังคับใช้โดยหน่วยงานกำกับดูแล ล่าสุดเมื่อเดือนมิถุนายน 2023 E.U. AI Act ฉบับนี้กำลังเข้าสู่การพิจารณาในวาระที่ 3 ของรัฐสภายุโรป ซึ่งเป็นวาระสุดท้ายก่อนมีผลบังคับใช้ และมีการประเมินว่าน่าจะผ่านความเห็นชอบภายในเดือนมกราคม 2024 โดยกฎหมายฉบับนี้มีเนื้อหาที่น่าสนใจ อาทิ การห้ามใช้ระบบจดจำใบหน้าหรือ Biometric ในที่สาธารณะ รวมถึงในเครื่องมือตรวจการณ์ของตำรวจ การวางข้อบังคับด้านความโปร่งใสให้แก่เครื่องมือพัฒนา AI รวมถึงโมเดลฐานรากหรือโมเดลปัญญาประดิษฐ์ที่ได้รับการฝึกด้วยข้อมูลจำนวนมหาศาล เช่น ChatGPT ด้วย


สมาชิกรัฐสภายุโรปกำลังลงคะแนนเสียงเกี่ยวกับ E.U. AI Act ระหว่างการประชุมใหญ่ที่รัฐสภายุโรป ณ เมือง Strasbourg ประเทศฝรั่งเศส เมื่อ 14 มิถุนายน 2023


E.U. AI Act ฉบับนี้ ยังจัดกลุ่มการใช้งาน AI ออกเป็น 4 ประเภทตามความเสี่ยง ตั้งแต่ความเสี่ยงระดับต่ำไปจนถึงความเสี่ยงที่ยอมรับไม่ได้ คือ

  1. เครื่องมือ AI ที่มีความเสี่ยงต่ำ สามารถพัฒนาและใช้งานได้ตามปกติ เพียงแค่ผู้พัฒนาหรือผู้ประกอบการมีจรรยาบรรณในการดำเนินธุรกิจ ตระหนักถึงผู้ใช้งานและผลกระทบต่อสังคม

  2. เครื่องมือ AI ที่มีความเสี่ยงจำกัด เช่น Chatbot หรือเทคโนโลยี Deep Fake หากถูกใช้งานในยุโรปจะต้องมีการบอกบริบทการใช้งานให้เห็นได้ชัด ไม่สร้างความสับสนให้กับผู้บริโภค

  3. เครื่องมือ AI ที่มีความเสี่ยงสูง ต้องปฏิบัติตามหลักเกณฑ์อย่างเข้มงวด เช่น เครื่องมือคัดกรองใบสมัครงานเพื่อประเมินผู้สมัครงาน

  4. เครื่องมือ AI และระบบที่ก่อให้เกิดความเสี่ยงที่ยอมรับไม่ได้ เช่น ระบบ Social Credit Score ของประเทศจีน ที่รัฐบาลจะเก็บข้อมูลพฤติกรรมของประชาชนจากการใช้จ่าย พฤติกรรมออนไลน์ และด้านสังคม เพื่อให้คะแนนทางสังคม จะถูกห้ามใช้ในสหภาพยุโรป

ในขณะเดียวกัน แม้จะมีความการกำกับดูแลอย่างจริงจัง แต่สมาชิกสหภาพยุโรปเองก็เห็นตรงกันว่า “AI ควรรับใช้ผู้คน สังคม และสิ่งแวดล้อม ไม่ใช่ในทางกลับกัน” ทำให้กฎระเบียบนี้มาพร้อมกับการจัดสรรงบประมาณอย่างแข็งขันเพื่อสนับสนุนการใช้เทคโนโลยี AI อาทิ การให้โครงการ Digital Europe ที่มีจุดประสงค์เพื่อส่งเสริมการเปลี่ยนผ่านสู่ยุคดิจิทัลแก่สหภาพยุโรป และ โครงการ Horizon Europe ซึ่งเป็นโครงการความร่วมมือด้านการวิจัยและนวัตกรรมของสหภาพยุโรป จะต้องจัดสรรเงินคนละ 1,000 ล้านยูโรให้กับโครงการพัฒนา AI ทุกปี นอกจากนี้ 20% ของเงินกองทุนฟื้นฟูเศรษฐกิจยุโรปที่ได้รับผลกระทบจาก COVID-19 หรือ EU Recovery Fund จะต้องจัดสรรให้โครงการใดก็ตามที่มุ่งหมายให้สหภาพยุโรปเกิดการเปลี่ยนผ่านสู่ดิจิทัลหรือโครงการที่เกี่ยวข้องกับการพัฒนา AI


นอกจากนี้ยังมีมาตรา 22 ใน กฎหมายคุ้มครองข้อมูลส่วนบุคคลหรือ General Data Protection Regulation (GDPR) ที่มีความเกี่ยวข้องโดยตรงกับเทคโนโลยี AI ที่ระบุว่า บริษัทที่ประมวลผลข้อมูลจะต้องเปิดโอกาสให้เจ้าของข้อมูลรับรู้กระบวนการประมวลผลข้อมูลของ AI นั้น และให้โอกาสเจ้าของข้อมูลคัดค้าน เช่น การอนุมัติสินเชื่อของธนาคารโดยระบบ AI จะต้องให้โอกาสเจ้าของข้อมูลคัดค้านผลการตัดสินที่กระทำโดย AI และสามารถร้องขอให้ใช้มนุษย์มาประมวลผลเพื่อพิจารณาการอนุมัติได้


โดยกฎระเบียบ AI ของสหภาพยุโรปนั้นมีความเข้มงวดเป็นอย่างมาก ครอบคลุมถึงนอกอาณาเขต อันหมายถึงว่าระบบ AI ใดก็ตามที่ก่อให้เกิดผลลัพธ์หรือผลิตภัณฑ์ภายในสหภาพยุโรปจะต้องอยู่ภายใต้ข้อบังคับนี้แม้ผู้ให้บริการหรือผู้ใช้งานจะอยู่นอกสหภาพยุโรปก็ตาม


สหรัฐอเมริกา


ฝ่ายนิติบัญญัติของสหรัฐอเมริกามีการพิจารณาถึงประโยชน์และความท้าทายของ AI มากขึ้น เริ่มมีมาตรการที่มุ่งเน้นไปยังการศึกษาผลกระทบของ AI และเปิดช่องให้ผู้กำหนดนโยบายในการดำเนินการร่างกฎหมายที่เกี่ยวข้อง โดยมีกฎหมายที่เกี่ยวข้องกับ AI อาทิ


Blueprint for an AI Bill of Rights


Blueprint for the Development, Use and Deployment of Automated Systems

ที่มา: https://www.whitehouse.gov/


หลักการและแนวปฏิบัติที่เกี่ยวข้อง 5 ข้อ เพื่อช่วยเป็นแนวทางในการออกแบบ การใช้งาน และการปรับใช้ระบบอัตโนมัติเพื่อปกป้องสิทธิพลเมือง เสรีภาพ และความเป็นส่วนตัวของชาวอเมริกันในยุคของปัญญาประดิษฐ์ ได้แก่

  1. Safe and Effective Systems ประชาชนควรได้รับการปกป้องจากระบบที่ไม่ปลอดภัยและไม่มีประสิทธิภาพ

  2. Algorithmic Discrimination Protections ประชาชนไม่ควรเผชิญกับการเลือกปฏิบัติโดยอัลกอริธึม และระบบควรใช้และออกแบบอย่างเท่าเทียมกัน

  3. Data Privacy ประชาชนควรได้รับการปกป้องจากแนวทางปฏิบัติด้านข้อมูลในทางที่ผิดผ่านระบบป้องกันในตัว และควรมีอำนาจควบคุมวิธีการใช้ข้อมูลเกี่ยวกับตนเอง

  4. Notice and Explanation ประชาชนควรทราบว่ามีการใช้ระบบอัตโนมัติและเข้าใจว่าระบบดังกล่าวมีส่วนทำให้เกิดผลลัพธ์ที่ส่งผลกระทบต่อตนเองอย่างไร

  5. Human Alternatives, Consideration, and Fallback ประชาชนควรจะสามารถเลือกไม่ใช้ปัญญาประดิษฐ์ได้ตามความเหมาะสม และสามารถเข้าถึงบุคคลที่สามารถพิจารณาและแก้ไขปัญหาที่ตนเองพบได้อย่างรวดเร็ว

Blueprint นี้ไม่มีข้อผูกมัด หากแต่เป็นเสมือนพิมพ์เขียวสำหรับการนำไปปรับใช้กับการออกกฎหมายและการพัฒนาเทคโนโลยี AI เท่านั้น


นอกจากนี้สหรัฐอเมริกาก็ยังมีกฎหมายที่เกี่ยวข้องกับ AI อีกหลายฉบับ ตั้งแต่ระดับบังคับใช้และยังอยู่ในระหว่างการเสนอร่างกฎหมายต่อรัฐสภาสหรัฐฯ อาทิ


Local Law 144 กฎหมายท้องถิ่นของนิวยอร์ค เป็นกฎหมายฉบับแรกในสหรัฐอเมริกาที่กล่าวถึงการใช้ AI และเทคโนโลยีอัตโนมัติอื่น ๆ ในกระบวนการจ้างงาน เพื่อลดอคติในการจ้างงานและการปรับเลื่อนตำแหน่งอันมีสาเหตุมาจากอคติใน AI , National AI Initiative Act (U.S. AI Act), The NIST AI Risk Management Framework (AI RMF) และ The California Privacy Rights Act (CPRA) เป็นต้น


แคนาดา


นายกรัฐมนตรี Justin Trudeau เยี่ยมชมโรงงาน Xanadu Quantum Technologies และสนับสนุนเงินทุน 40 ล้านดอลลาร์ เพื่อให้ Xanadu สร้าง Quantum Computer แบบ photonic-based ที่ทนทานต่อความผิดพลาดเพื่อการพาณิชย์เครื่องแรกของโลก เมื่อ 23 มกราคม 2023

ที่มา: https://www.utoronto.ca/


Artificial Intelligence and Data Act (AIDA)


AIDA ถือเป็น พรบ. AI ฉบับแรกของแคนาดา ถูกบรรจุไว้เป็นส่วนหนึ่งของ พรบ.การดำเนินการตามกฎบัตรดิจิทัล ซึ่งถูกเสนอเข้าสู่สภาเมื่อเดือนมิถุนายน 2022 โดยมีจุดประสงค์เพื่อควบคุมธุรกิจ AI ระหว่างประเทศและระหว่างรัฐด้วยกัน


ในภาพรวมของ AIDA มีความคล้ายคลึงกับ E.U. AI Act ที่กำหนดให้ต้องมีการใช้มาตรการเพื่อควบคุมความเสี่ยงของอันตรายและอคติอันเป็นผลมาจากการใช้ AI ประสิทธิภาพสูง มีการให้คำจำกัดความคำว่า "ปัญญาประดิษฐ์" ในลักษณะที่เป็นกลางทางเทคโนโลยี เพื่อให้ไม่ล้าสมัย สามารถใช้ได้ในอนาคต และทันต่อความก้าวหน้าของ AI


กฎหมายฉบับนี้ให้อำนาจรัฐมนตรีในการสั่งการให้ทุกภาคส่วนที่เกี่ยวข้องกับการพัฒนาและใช้ AI ต้องจัดทำรายงานสาธารณะ และเปิดเผยบันทึกที่เกี่ยวข้อง โดย AIDA มีการจัดหมวดหมู่ของระบบ AI ที่มีความเสี่ยงสูงและความเสี่ยงต่ำ แต่ไม่ได้มีข้อห้ามที่ชัดเจนว่าแบบไหนที่เรียกว่าอยู่ในระดับอันตรายที่ยอมรับไม่ได้ ซึ่งในทุกระดับจำเป็นต้องมีมาตรการเรื่องความโปร่งใส และมีข้อห้ามสำหรับการปฏิบัติที่เกี่ยวกับการจัดการข้อมูลและระบบ AI ที่อาจก่อให้เกิดอันตรายร้ายแรงต่อบุคคล ในขณะเดียวกันก็พยายามสร้างสมดุลให้กับความจำเป็นที่ยังคงต้องมีการส่งเสริมการพัฒนานวัตกรรม


ปัจจุบัน (ข้อมูล ณ เดือนมีนาคม 2023) ร่างกฎหมายนี้อยู่ในระหว่างการพิจารณาครั้งที่สองในสภาแคนาดาและยังจำเป็นต้องได้รับความเห็นชอบจากวุฒิสภา


ญี่ปุ่น


ญี่ปุ่นมีอุตสาหกรรมไอทีใหญ่เป็นอันดับ 2 ในองค์การเพื่อความร่วมมือทางเศรษฐกิจและการพัฒนา (OECD) และมีการลงทุนจำนวนมากในการวิจัยและพัฒนา แต่สำหรับเทคโนโลยี AI แล้วกลับกลายเป็นว่า ญี่ปุ่นยังคงตามหลังทั้งสหรัฐฯ จีน และประเทศต่าง ๆ ในสหภาพยุโรป เหตุมาจากการขาดแคลนวิศวกรในการพัฒนาซอฟต์แวร์ Deep Learning และการที่ยังไม่มีบริษัทไหนในญี่ปุ่นที่ครอบครอง Supercomputer ซึ่งมีความสำคัญสำหรับการพัฒนาโมเดลภาษาขนาดใหญ่หรือ LLM อย่างไรก็ตาม รัฐบาลญี่ปุ่นเปิดรับเทคโนโลยี AI มากขึ้น โดยได้มีการวางกลยุทธ์และระเบียบข้อบังคับสำหรับ AI ในญี่ปุ่นโดยให้เชื่อมโยงกับโครงการ "Society 5.0" ซึ่งมุ่งมั่นที่จะแก้ปัญหาสังคมของญี่ปุ่น เช่น ประชากรสูงวัย ด้วยนวัตกรรมและเทคโนโลยี ดังนั้น สำหรับญี่ปุ่นแล้ว เทคโนโลยีใหม่ที่เกิดขึ้นจึงต้องมีประสิทธิภาพสูง ช่วยให้เกิดสังคมแห่งความเท่าเทียมและสังคมเพื่อทุกคน และนำพาประเทศให้เป็นผู้นำทั้งภาคสังคมและการเมือง


ภาพการพัฒนาเศรษฐกิจและการแก้ไขปัญหาสังคมใน "Society 5.0" ของญี่ปุ่น

ที่มา: https://www8.cao.go.jp/


Social Principles of Human-Human-Centric AI


รัฐบาลญี่ปุ่นได้เผยแพร่หลักการพื้นฐานทางสังคมที่ขับเคลื่อนด้วย AI โดยมีมนุษย์เป็นศูนย์กลาง จัดทำโดยสภาส่งเสริมยุทธศาสตร์ด้านนวัตกรรมแบบบูรณาการของญี่ปุ่น เมื่อเดือนมีนาคม 2019 โดยแบ่งเป็นส่วนที่ภาคสังคมและภาครัฐต้องให้ความสำคัญและเคารพเมื่อต้องบริหารจัดการกับ AI ในขณะที่อีกส่วนใช้สำหรับให้บริษัทผู้พัฒนาและนักพัฒนา AI นำไปเป็นข้อมูลอ้างอิงเมื่อต้องพัฒนาเทคโนโลยี AI

ทั้งนี้ หลักการพื้นฐานของสังคมที่ขับเคลื่อนด้วย AI ประกอบไปด้วย

  1. ต้องมีมนุษย์เป็นศูนย์กลาง

  2. เกี่ยวกับการศึกษา / ทักษะความเข้าใจและการฉลาดรู้ (Literacy)

  3. มีการปกป้องข้อมูล

  4. มีการรับรองความปลอดภัย

  5. มีการแข่งขันที่เป็นธรรม

  6. มีความยุติธรรม ความรับผิดชอบ และความโปร่งใส

  7. เป็นนวัตกรรม

อย่างไรก็ตาม มาตรการกำกับดูแลที่กล่าวมานี้ยังไม่มีผลผูกพันทางกฎหมายในญี่ปุ่น เป็นเพียงหลักการที่ออกแบบจากการประเมินโอกาสและความเสี่ยงที่เกี่ยวข้องกับการพัฒนาและใช้ AI เพื่อการเติบโตอย่างครอบคลุม การพัฒนาที่ยั่งยืนและความเป็นอยู่ที่ดีของสังคมญี่ปุ่นเท่านั้น


จีน


กระทรวงอุตสาหกรรมและเทคโนโลยีสารสนเทศ (MIIT) ของจีนประกาศว่าปริมาณพลังการประมวลผลทางคอมพิวเตอร์ของจีนอยู่อันดับ 2 ของโลก โดยมีอัตราการเติบโตอยู่ที่ 30% ต่อปี โดยครึ่งหนึ่งมาจากพลังประมวลผลที่ใช้กับระบบ AI เมื่อ 19 กรกฎาคม 2023

ที่มา: https://www.shine.cn/


สภานิติบัญญัติของจีนได้จัดทำ "Next Generation Artificial Intelligence Development Plan" หรือแผนพัฒนาปัญญาประดิษฐ์ยุคใหม่มาตั้งแต่ปี 2017 โดยปัจจุบันคือแผนแม่บท AI 2023 ซึ่งเป็นแผนแม่บทที่กำหนดยุทธศาสตร์และแนวทางการพัฒนาเทคโนโลยี AI อย่างเป็นระบบ กำหนดให้เทคโนโลยี AI เป็นส่วนหนึ่งของยุทธศาสตร์การพัฒนาแห่งชาติ มีความสำคัญต่อการยกระดับความสามารถในการแข่งขันในเวทีโลกและการพัฒนาเศรษฐกิจและสังคมของจีน โดยในแผนแม่บทนี้มีการกำหนดให้จัดตั้งข้อกฎหมาย กฎระเบียบ และบรรทัดฐานทางจริยธรรมเกี่ยวกับการพัฒนา AI เอาไว้ด้วย ซึ่งกฎระเบียบ AI ของจีน อาทิ


Administrative Measures for Generative Artificial Intelligence Services


Cyberspace Administration (CAC) หรือหน่วยงานกำกับดูแลบริการออนไลน์ของจีน ได้ประกาศกฎหมายควบคุมการให้บริการ Generative AI ฉบับชั่วคราวในเดือนกรกฎาคม 2023 ระบุว่าผลิตภัณฑ์ Generative AI ใหม่ที่พัฒนาขึ้นในจีนจะต้องผ่านการประเมินความปลอดภัยในการให้บริการและตรวจสอบความปลอดภัยของข้อมูลผู้ใช้งาน ก่อนเผยแพร่สู่ประชาชน ร่างกฎหมายนี้ยังกำหนดให้เนื้อหาที่สร้างโดย AI ต้องเป็นความจริงและถูกต้อง สอดคล้องกับคุณค่าสังคมนิยมของประเทศ และห้ามมีเนื้อหาที่บ่อนทำลายอำนาจรัฐหรือมีการโฆษณาชวนเชื่อของผู้ก่อการร้ายหรือกลุ่มสุดโต่ง ความรุนแรง ข้อมูลลามกอนาจาร ความเกลียดชังทางชาติพันธุ์ การเลือกปฏิบัติ หรือเนื้อหาอื่น ๆ ที่อาจส่งผลกระทบต่อเศรษฐกิจและสังคม และผู้ให้บริการจะต้องไม่ละเมิดทรัพย์สินทางปัญญา แหล่งที่มาของข้อมูลจะต้องมาจากแหล่งที่ถูกกฎหมาย โดยบทลงโทษสำหรับผู้ให้บริการที่ไม่ปฏิบัติตามกฎระเบียบมีตั้งแต่โทษปรับ ถูกระงับบริการ หรือถูกสอบสวนทางอาญา


นอกจากนี้ยังมีการกำกับกฎระเบียบอื่น ๆ เช่น จรรยาบรรณสำหรับปัญญาประดิษฐ์ยุคใหม่, Algorithm Provisions หรือบทบัญญัติอัลกอริธึม และ Deep Synthesis Provisions ที่ควบคุมเทคโนโลยีปลอมแปลงเสียงและใบหน้า (DeepFake)


ประเทศไทย


ประเทศไทยมีแผนปฏิบัติการด้านปัญญาประดิษฐ์แห่งชาติเพื่อการพัฒนาประเทศไทย ปี 2022-2027 หรือ แผน AI แห่งชาติ ซึ่งผ่านการเห็นชอบโดยคณะรัฐมนตรีตั้งแต่เดือนสิงหาคม 2022 โดยหนึ่งในยุทธศาสตร์ของแผน AI แห่งชาติ คือ ยุทธศาสตร์ด้านจริยธรรมและกฎระเบียบที่เกี่ยวข้อง ที่ระบุว่าจะต้องมีการพัฒนาข้อกำหนด กฎหมาย มาตรฐาน และนโยบายที่เกี่ยวข้องกับ AI ของประเทศ และต้องสื่อสารและสร้างการรับรู้ด้านจริยธรรม AI โดยมีเป้าหมายให้ประชาชนไม่ต่ำกว่า 600,000 คน เกิดความตระหนักทางด้าน AI และมีกฏหมาย ระเบียบ หรือข้อบังคับที่เกี่ยวข้องกับ AI ถูกประกาศใช้งานไม่ต่ำกว่า 1 ฉบับ


โดยปัจจุบัน คณะกรรมการขับเคลื่อนแผน AI แห่งชาติและหน่วยงานที่เกี่ยวข้องอยู่ในระหว่างการศึกษาเพื่อกำหนดมาตรฐาน AI สำหรับใช้งานร่วมกัน โดยอยู่บนพื้นฐานที่ว่าจะต้องเป็นมาตรฐานแบบกว้าง ไม่เน้นการกำกับ เน้นการแนะนำและไม่ขวางกั้นการพัฒนาเทคโนโลยี


อย่างไรก็ตาม แม้ว่ากฎระเบียบและการกำกับดูแลจะยังอยู่ในระหว่างการพัฒนานั้น สำนักงานคณะกรรมการดิจิทัลเพื่อเศรษฐกิจและสังคมแห่งชาติ กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม (ดีอีเอส) ได้ออกแนวปฏิบัติจริยธรรมปัญญาประดิษฐ์ โดย ครม. มีมติรับทราบและเห็นชอบให้หน่วยงานราชการใช้เป็นแนวทางปฏิบัติในการพัฒนา ส่งเสริม และนำไปใช้ในทางที่ถูกต้องและมีจริยธรรมต่อผู้มีส่วนได้ส่วนเสียเพื่อให้เกิดประโยชน์ต่อสังคม เมื่อ 2 กุมภาพันธ์ 2564 ที่ผ่านมา ดังนี้


แนวปฏิบัติจริยธรรมปัญญาประดิษฐ์ (Thailand Artificial Intelligence Ethics Guideline)


กรอบแนวทางเพื่อให้ผู้วิจัย ผู้ออกแบบ ผู้พัฒนาและผู้ให้บริการ AI ของภาครัฐและองค์กรเอกชนใช้ในการเลือกใช้เทคโนโลยี AI แบบมีจริยธรรม โดยที่ต้องให้ผู้รับบริการได้ทราบถึงสิทธิและตระหนักรู้ถึงความเสี่ยงของการใช้บริการ AI เพื่อให้ AI มีความน่าเชื่อถือ มั่นคงปลอดภัย ได้รับการพัฒนาและใช้งานให้เกิดประโยชน์กับมนุษย์ สังคมและสิ่งแวดล้อม ด้วยความโปร่งใส ครอบคลุมและเป็นธรรม สอดคล้องกับกฎหมาย จริยธรรมและสิทธิมนุษยชน โดยแบ่งออกเป็น 3 บท ดังนี้


บทที่ 1 หลักการและเหตุผลการปฏิบัติตามจริยธรรม บนพื้นฐานขององค์ประกอบ 6 ด้าน คือ 1) ความสามารถในการแข่งขันและการพัฒนาอย่างยั่งยืน 2) ความสอดคล้องกับกฎหมาย จริยธรรม และมาตรฐานสากล 3) ความโปร่งใส และภาระความรับผิดชอบ 4)ความมั่นคงปลอดภัย และความเป็นส่วนตัว 5) ความเท่าเทียม หลากหลาย ครอบคลุม และเป็นธรรม และ 6) ความน่าเชื่อถือ


ที่มา: https://www.etda.or.th/


บทที่ 2 การมีจริยธรรมปัญญาประดิษฐ์ (AI Ethics Case Study) เป็นการกล่าวถึงกรณีศึกษาของภาคเอกชนทั้งในและนอกประเทศ ซึ่งได้นำจริยธรรมปัญญาประดิษฐ์มาใช้เป็นแนวทางในการวิจัย ออกแบบ พัฒนา และให้บริการ รวมทั้งพิจารณาถึงขอบเขตความเหมาะสมในการใช้เทคโนโลยีปัญญาประดิษฐ์ที่ทำให้เห็นถึงประโยชน์และปัญหาที่เกิดขึ้นจากการใช้ปัญญาประดิษฐ์ โดยมีกรณีตัวอย่างของบริษัทเอกชนในประเทศไทยที่มีความโดดเด่นด้านการใช้ปัญญาประดิษฐ์


บทที่ 3 กรอบแนวทางจริยธรรมปัญญาประดิษฐ์ (Thailand AI Ethics Framework) ที่กำหนดให้ผู้เกี่ยวข้องต้องมีการกำกับดูแลให้เป็นไปตามกฎระเบียบ, องค์กรวิจัยหรือนักวิจัย/บริษัทที่ออกแบบและการพัฒนาระบบ/ผู้ให้บริการระบบปัญญาประดิษฐ์ต้องออกแบบระบบการจัดการ AI รวมทั้งการจัดการทรัพยากรบุคคลสำหรับ AI Ethics, สร้างการตระหนักรู้ให้กับผู้ใช้งานผลิตภัณฑ์หรือผู้ที่ได้รับผลกระทบจากระบบปัญญาประดิษฐ์ และองค์กรควรจัดตั้งคณะกรรมการจริยธรรมปัญญาประดิษฐ์ (AI Ethics Board)


ที่มา: https://www.etda.or.th/


นี่เป็นเพียงส่วนหนึ่งของตัวอย่างกฎหมายที่เกี่ยวข้องกับ AI จากทั่วโลก ยังมีอีกหลายประเทศที่ได้ผ่านกฎหมายเพื่อบังคับใช้ รวมถึงอยู่ในระหว่างการดำเนินการ เพราะการพัฒนาเทคโนโลยี AI ก้าวหน้าอย่างรวดเร็วและอยู่ในวิถีชีวิตผู้คนอย่างหลีกเลี่ยงไม่ได้ ซึ่งกระตุ้นให้เกิดทั้งความท้าทาย การตั้งคำถาม และการรับมือกับเทคโนโลยีเพื่อให้อยู่ร่วมกันได้อย่างสมดุล อย่างไรก็ตาม เพราะศักยภาพของ AI ทำให้ผู้คนใช้ประโยชน์ได้อย่างหลากหลายเช่นนี้ จึงจำเป็นต้องมีการกำกับ กฎระเบียบ และมาตรฐานร่วมกัน เพื่อให้แน่ใจว่าเทคโนโลยีที่จะเข้ามาเปลี่ยนแปลงและสร้างผลกระทบต่อชีวิตผู้คนนั้นจะต้องมีความปลอดภัย โปร่งใส เคารพในความเป็นส่วนตัว และไม่ก่อเกิดการอคติและเลือกปฏิบัติ



อ้างอิง


bottom of page