กฎหมายสามารถจัดการกับปัญญาประดิษฐ์ได้อย่างไร?
เมื่อคุณเลื่อนดูฟีดสื่อสังคมหรือปล่อยให้แอปเพลงโปรดของคุณเลือกเพลย์ลิสต์ที่ดีที่สุด อาจรู้สึกราวกับว่าปัญญาประดิษฐ์กำลังปรับปรุงชีวิตของคุณ เรียนรู้ความชอบของคุณและตอบสนองความต้องการ แต่เบื้องหลังความสะดวกสบายนี้ คือความกังวลที่กำลังเติบโตขึ้น เป็นความอันตรายจากอัลกอริธึม
อันตรายเหล่านี้ไม่ได้ชัดเจนหรือเกิดขึ้นทันที แต่แอบแฝงและสะสมขึ้นเรื่อยๆ ขณะที่ระบบปัญญาประดิษฐ์ทำการตัดสินใจเกี่ยวกับชีวิตของคุณโดยที่คุณแทบไม่รู้ตัว พลังที่ซ่อนเร้าของระบบเหล่านี้กำลังกลายเป็นภัยคุกคามที่สำคัญต่อความเป็นส่วนตัว ความเท่าเทียม ความเป็นอิสระ และความปลอดภัย
ระบบปัญญาประดิษฐ์ฝังตัวอยู่ในเกือบทุกแง่มุมของชีวิตสมัยใหม่ พวกมันแนะนำว่าคุณควรดูรายการโทรทัศน์และภาพยนตร์อะไร ช่วยนายจ้างตัดสินใจว่าจะจ้างใคร และยังมีอิทธิพลต่อผู้พิพากษาในการตัดสินว่าใครสมควรได้รับการลดโทษ แต่จะเกิดอะไรขึ้นเมื่อระบบเหล่านี้ ซึ่งมักถูกมองว่าเป็นกลาง เริ่มตัดสินใจที่เป็นผลเสียต่อกลุ่มบางกลุ่ม หรือร้ายแรงยิ่งกว่านั้น ก่อให้เกิดอันตรายในโลกแห่งความเป็นจริง
ผลกระทบที่มักถูกมองข้ามของการใช้ปัญญาประดิษฐ์เรียกร้องให้มีกรอบการกำกับดูแลที่สามารถก้าวทันเทคโนโลยีที่พัฒนาอย่างรวดเร็วนี้ ฉันศึกษาที่จุดตัดระหว่างกฎหมายและเทคโนโลยี และได้ร่างกรอบทางกฎหมายเพื่อรับมือกับสถานการณ์นี้
การสะสมอย่างช้าๆ
หนึ่งในแง่มุมที่น่าสังเกตที่สุดของอันตรายจากอัลกอริธึม คือผลกระทบสะสมที่มักถูกมองข้าม ระบบเหล่านี้โดยทั่วไปไม่ได้โจมตีความเป็นส่วนตัวหรือความเป็นอิสระของคุณอย่างที่คุณสามารถรับรู้ได้ง่าย พวกมันรวบรวมข้อมูลปริมาณมหาศาลเกี่ยวกับผู้คน – บ่อยครั้งโดยไม่ให้พวกเขารู้ตัว – และใช้ข้อมูลนี้เพื่อกำหนดการตัดสินใจที่ส่งผลกระทบต่อชีวิตของผู้คน
บางครั้ง ส่งผลเพียงความไม่สะดวกเล็กน้อย เช่น การโฆษณาที่ติดตามคุณไปทั่วเว็บไซต์ แต่เมื่อปัญญาประดิษฐ์ดำเนินการโดยไม่แก้ไขอันตรายซ้ำๆ เหล่านี้ พวกมันสามารถขยายผล นำไปสู่ความเสียหายสะสมที่สำคัญในกลุ่มคนที่หลากหลาย
สาเหตุที่กฎระเบียบล้าหลัง
แม้จะมีอันตรายที่เพิ่มขึ้น แต่กรอบทางกฎหมายทั่วโลกยังดิ้นรนที่จะตามทัน ในสหรัฐอเมริกา แนวทางการกำกับดูแลที่เน้นนวัตกรรมทำให้ยากที่จะกำหนดมาตรฐานเข้มงวดเกี่ยวกับวิธีใช้ระบบเหล่านี้ในบริบทต่างๆ
สี่ประเภทของอันตรายจากอัลกอริธึม
ฉันได้จัดประเภทอันตรายจากอัลกอริธึมออกเป็นสี่ด้านทางกฎหมาย: ความเป็นส่วนตัว ความเป็นอิสระ ความเท่าเทียม และความปลอดภัย
ประเภทแรก คือ การละเมิดความเป็นส่วนตัว ระบบปัญญาประดิษฐ์รวบรวม ประมวลผล และส่งต่อข้อมูลปริมาณมหาศาล ซึ่งค่อยๆ กัดกร่อนความเป็นส่วนตัวของผู้คน
ประเภทที่สอง คือ การบั่นทอนความเป็นอิสระ ระบบปัญญาประดิษฐ์มักบั่นทอนความสามารถในการตัดสินใจอย่างอิสระของคุณโดยการจัดการข้อมูลที่คุณเห็น
ประเภทที่สาม คือ การลดทอนความเท่าเทียม ระบบปัญญาประดิษฐ์ แม้ออกแบบมาเพื่อความเป็นกลาง แต่มักสืบทอดอคติที่มีอยู่ในข้อมูลและอัลกอริธึม
ประเภทสุดท้าย คือ การบั่นทอนความปลอดภัย ระบบปัญญาประดิษฐ์ทำการตัดสินใจที่ส่งผลกระทบต่อความปลอดภัยและความเป็นอยู่ของผู้คน
การปิดช่องว่างในความรับผิดชอบ
การจำแนกประเภทอันตรายจากอัลกอริธึมช่วยกำหนดขอบเขตทางกฎหมายของการกำกับดูแลปัญญาประดิษฐ์ ผมเสนอการเปลี่ยนแปลงบางประการ เช่น การประเมินผลกระทบของอัลกอริธึมแบบบังคับ การให้สิทธิรายบุคคลที่เข้มแข็งในการใช้ระบบปัญญาประดิษฐ์ และการบังคับให้บริษัทเปิดเผยการใช้เทคโนโลยีปัญญาประดิษฐ์และอันตรายที่คาดว่าจะเกิดขึ้น
เมื่อระบบปัญญาประดิษฐ์ถูกนำมาใช้มากขึ้นในหน้าที่สำคัญของสังคม – ตั้งแต่การดูแลสุขภาพไปจนถึงการศึกษาและการจ้างงาน – ความจำเป็นในการควบคุมอันตรายที่พวกมันอาจก่อให้เกิดยิ่งทวีความสำคัญมากขึ้น หากไม่มีการแทรกแซง อันตรายที่มองไม่เห็นเหล่านี้มีแนวโน้มที่จะสะสมต่อไป ส่งผลกระทบเกือบทุกคนและกระทบอย่างไม่เป็นธรรมต่อผู้ที่เปราะบางที่สุด
อนาคตของปัญญาประดิษฐ์มีศักยภาพที่น่าตื่นเต้น แต่หากขาดกรอบทางกฎหมายที่เหมาะสม มันอาจจะตรึงความไม่เท่าเทียมและกัดกร่อนสิทธิพลเมืองที่ในหลายกรณีมันถูกออกแบบมาเพื่อส่งเสริม
แหล่งที่มา: https://gizmodo.com/how-the-law-can-tame-artificial-intelligence-2000531170