อ่านความจริง อ่านเดลินิวส์

ศุกร์ที่ 22 มีนาคม 2562

อ่านความจริง อ่านเดลินิวส์

ศุกร์ที่ 22 มีนาคม 2562

ผลสำรวจชี้กรอบจริยธรรมการใช้งานเอไอสำคัญ

ผลสำรวจพบองค์กรเริ่มเน้นใช้ AI ด้วยความรับผิดชอบและมีจริยธรรม หลังเทคโนโลยีเอไอมีอิทธิพลต่อชีวิตความเป็นอยู่ของผู้คนในปัจจุบัน กรอบจริยธรรมสำหรับการใช้งานเอไอจึงสำคัญมาก ศุกร์ที่ 11 มกราคม 2562 เวลา 17.24 น.


SAS, เอคเซนเชอร์ แอปไพลด์ อินเทลลิเจนซ์, อินเทล และ ฟอร์บส์ อินไซต์ รายงานศึกษาล่าสุดเผยให้เห็นว่า ผู้บริหารธุรกิจชั้นนำเริ่มดำเนินการเสริมสร้างการใช้ปัญญาประดิษฐ์หรือ AI ด้วยความรับผิดชอบ โดยองค์กรส่วนใหญ่ที่ใช้ AI ซึ่งคิดเป็นร้อยละ 72 ของทั่วโลก ได้เริ่มอบรมด้านจริยธรรมให้กับบุคลากรด้านเทคโนโลยีของตน (ร้อยละ 70) และจัดให้มีคณะกรรมการด้านจริยธรรม เพื่อประเมินและตรวจสอบการใช้ AI ด้วย (ร้อยละ 63)


องค์กรที่นำ AI ไปใช้ได้อย่าง “ประสบผลสำเร็จ” หรือ “ประสบผลสำเร็จอย่างสูง” ถือเป็นผู้นำด้าน AI ที่เริ่มนำในด้านจริยธรรมด้วย โดยเกือบทั้งหมด (ร้อยละ 92) ได้อบรมด้านจริยธรรมให้กับบุคลากรด้านเทคโนโลยีของตนแล้ว เทียบกับองค์กรอื่นทั่วไปที่ใช้ AI แต่อบรมด้านจริยธรรมแล้วประมาณร้อยละ 48


ผลการศึกษานี้ได้จากการสำรวจข้อมูลและความคิดเห็นจากผู้บริหารธุรกิจชั้นนำ 305 รายทั่วโลก โดยกว่าครึ่งเป็นผู้บริหารระดับประธานเจ้าหน้าที่บริหารด้านสารสนเทศ (CIO) ด้านเทคโนโลยี (CTO) และด้านอนาลิติกส์ (CAO) ในหัวข้อ “AI Momentum, Maturity and Models for Success” ซึ่ง SAS เอคเซนเชอร์ แอปไพลด์ อินเทลลิเจนซ์ และ อินเทล ได้มอบหมายให้ ฟอร์บส์ อินไซต์ จัดทำเมื่อเดือนกรกฎาคม 2561


รายงานฉบับนี้ชี้ให้เห็นว่า เทคโนโลยีเอไอมีอิทธิพลต่อชีวิตความเป็นอยู่ของผู้คนในปัจจุบัน กรอบจริยธรรมสำหรับการใช้งานเอไอ จึงสำคัญมาก



นายนนทวัฒน์ พุ่มชูศรี กรรมการผู้จัดการ เอคเซนเชอร์ ประเทศไทย กล่าวว่า องค์กรต่าง ๆ เริ่มตระหนักถึงประเด็นความกังวลและผลจากเทคโนโลยีเอไอที่เบี่ยงเบนไป เช่น ทำให้เกิดการปฏิบัติอย่างไม่ยุติธรรมและลำเอียง อย่างไรก็ดี ต้องถือว่าเป็นก้าวย่างที่ดีที่องค์กรต่าง ๆ ได้เริ่มทำอะไรมากกว่าการปฏิญาณว่าจะละเว้นไม่ใช้เทคโนโลยีเอไอในทางอันตรายหรือเกิดโทษ (do no harm) โดยควรมีแนวทางที่ชอบด้วยกฎหมาย ชัดเจน เหมาะสมกับการใช้ปฏิบัติ เพื่อพัฒนาระบบเกี่ยวกับเอไอให้ปลอดภัย โปร่งใส อธิบายได้ และน่าเชื่อถือ เพื่อเลี่ยงไม่ให้เกิดผลที่ไม่คาดคิดตามมา หรือสุ่มเสี่ยงที่จะขัดต่อกฎระเบียบ และอาจเป็นอันตรายต่อตัวบุคคล ธุรกิจ และสังคม บรรดานักวิทยาศาสตร์ข้อมูลจึงต้องการให้มีแนวทางด้านจริยธรรมในลักษณะนี้


นอกจากนี้ องค์กรผู้นำด้านเอไอยังตระหนักดีว่าระบบอนาลิติกส์ (Analytics) มีส่วนสัมพันธ์กับการนำเอไอมาใช้ได้อย่างประสบผลสำเร็จ โดยองค์กรถึงร้อยละ 79 ยอมรับว่าระบบอนาลิติกส์มีบทบาทหลักหรือสำคัญต่อประสิทธิภาพการทำงานของเอไอในองค์กร และมีเพียงร้อยละ 14 ที่ยังไม่เห็นผลหรือประโยชน์ที่จะได้รับจากการใช้เทคโนโลยีเอไอ



แม้จะมีกระแสว่า เทคโนโลยีเอไอทำงานได้โดยอิสระ ปราศจากการแทรกแซงของมนุษย์ แต่งานวิจัยนี้ก็ชี้ให้เห็นว่า องค์กรผู้นำด้านเอไอตระหนักดีว่า การกำกับดูแลเทคโนโลยีดังกล่าวเป็นเรื่องจำเป็น ไม่ใช่เรื่องเสริม โดยร้อยละ 74 ขององค์กรผู้นำด้านเอไอเปิดเผยว่า ได้ดูแลการใช้งานอย่างระมัดระวัง โดยจัดให้มีการประเมินและตรวจสอบผลอย่างน้อยทุกสัปดาห์ (ขณะที่มีเพียงร้อยละ 33 ขององค์กรที่ประสบความสำเร็จในการใช้ AI น้อยกว่า ได้ทำการตรวจสอบ) นอกจากนี้ ร้อยละ 43 ของกลุ่มผู้นำด้านเอไอยังเผยว่า องค์กรมีกระบวนการที่สามารถเพิ่มเติมหรือลดผลได้ที่ดูผิดสังเกตในระหว่างตรวจสอบ (ในขณะที่มีเพียงร้อยละ 28 ขององค์กรที่ประสบความสำเร็จในการใช้ AI น้อยกว่า มีกระบวนการลักษณะนี้)



“หากสามารถเข้าใจวิธีการตัดสินใจของเอไอได้ จะทำให้เกิดความเชื่อมั่นและช่วยให้มนุษย์กำกับดูแลเอไอได้อย่างมีประสิทธิภาพ สำหรับนักพัฒนาและลูกค้าที่วางแผนนำเอไอไปใช้ โดยพัฒนาอัลกอริทึมที่โปร่งใสและอธิบายได้ รวมทั้งใช้ระบบเอไอทำงานโดยแสดงให้เห็นว่าไม่ใช่ฝีมือมนุษย์ เส้นทางการพัฒนาจึงยังอีกยาวไกล จนกว่าจะสามารถสร้างความเชื่อมั่นจนถึงระดับที่มีการนำเอไอไปใช้อย่างแพร่หลาย” นายนนทวัฒน์ กล่าว


ดังนั้น การที่องค์กรต่าง ๆ พัฒนาแนวทางการใช้เอไออย่างมีจริยธรรม และเสริมความเชื่อมั่นว่าจะมีการกำกับดูแลที่ดี จึงเป็นเรื่องที่สมเหตุสมผล เพราะองค์กรตระหนักดีว่าหากผลจากการใช้เอไอออกมาคลาดเคลื่อน จะส่งผลกระทบต่อไปยังส่วนอื่น ๆ สำหรับองค์กรที่นำเอไอมาใช้แล้วหรือมีแผนจะนำมาใช้ พบว่าร้อยละ 60 มีความกังวลเรื่องการใช้เอไอในการตัดสินใจเรื่องที่เกี่ยวกับข้องกับลูกค้า เช่น องค์กรจะดูแล้งน้ำใจหรือไม่ หรือยิ่งทำให้ลูกค้าเชื่อมั่นในองค์กรน้อยลงก็เป็นได้
 

คุณเห็นด้วยกับข่าวนี้หรือไม่

  • เห็นด้วย
    100%
  • ไม่เห็นด้วย
    0%

บอกต่อ : 37