สล็อตแตกง่ายเมื่อข้อมูลทางวิทยาศาสตร์เป็นอันตราย

สล็อตแตกง่ายเมื่อข้อมูลทางวิทยาศาสตร์เป็นอันตราย

ความหวังที่ยิ่งใหญ่อย่างหนึ่งเกี่ยวกับ AI เมื่อการเรียนรู้สล็อตแตกง่ายของเครื่องดีขึ้นก็คือ เราจะสามารถใช้มันเพื่อการค้นพบยาได้ โดยใช้พลังการจับคู่รูปแบบของอัลกอริธึมเพื่อระบุตัวยาที่มีแนวโน้มว่าจะเป็นยาได้เร็วและถูกกว่าที่นักวิทยาศาสตร์มนุษย์จะทำได้เพียงลำพัง

แต่เราอาจต้องการใช้ความระมัดระวัง: ระบบใดๆ ก็ตามที่ทรงพลังและแม่นยำพอที่จะระบุยาที่ปลอดภัยสำหรับมนุษย์นั้น โดยเนื้อแท้แล้วคือระบบที่สามารถระบุตัวยาที่อันตรายอย่างเหลือเชื่อสำหรับมนุษย์ได้เช่นกัน

นั่นคือประเด็นจากบทความใหม่ในNature Machine Intelligenceโดย Fabio Urbina, Filippa Lentzos, Cédric Invernizzi และ Sean Ekins พวกเขาใช้โมเดลแมชชีนเลิร์นนิงที่พวกเขาฝึกมาเพื่อค้นหายาที่ไม่เป็นพิษ และพลิกคำสั่งเพื่อพยายามค้นหาสารประกอบที่เป็นพิษแทน ภายในเวลาไม่ถึงหกชั่วโมง ระบบระบุสารประกอบอันตรายหลายหมื่นชนิด รวมทั้งบางชนิดที่คล้ายกับก๊าซประสาท VX

“Dual use” มาแล้วไม่หายไปไหน

บทความของพวกเขากล่าวถึงความสนใจของฉัน 3 อย่าง ซึ่งทั้งหมดนี้เป็นสิ่งสำคัญที่ต้องจำไว้ในขณะที่อ่านข่าวที่น่าตกใจเช่นนี้

ประการแรกคือความสำคัญที่เพิ่มขึ้นของข้อกังวล “การใช้งานแบบคู่”ในการวิจัยทางวิทยาศาสตร์ ชีววิทยาเป็นที่ที่นวัตกรรมที่น่าตื่นเต้นที่สุดของศตวรรษที่ 21 กำลังเกิดขึ้น และนวัตกรรมที่ต่อเนื่อง โดยเฉพาะอย่างยิ่งในวัคซีนและการรักษาในวงกว้างมีความสำคัญต่อการช่วยชีวิตและป้องกันภัยพิบัติในอนาคต

แต่เครื่องมือที่ทำให้ลำดับ DNA เร็วขึ้นและพิมพ์ได้ง่ายขึ้น หรือทำให้การค้นพบยาถูกกว่า หรือช่วยให้เราระบุสารประกอบทางเคมีที่จะทำในสิ่งที่เราต้องการได้อย่างง่ายดาย เป็นเครื่องมือที่ทำให้การทำอันตรายที่น่ากลัวถูกกว่าและง่ายกว่ามาก . นั่นคือปัญหา “การใช้งานแบบคู่”

Eduardo Franco as Argyle, Charlie Heaton as Jonathan, Millie Bobby Brown as Eleven, Noah Schnapp as Will Byers, and Finn Wolfhard as Mike Wheeler in Stranger Things.

นี่คือตัวอย่างจากชีววิทยา: วัคซีน adenovirus vector เช่นวัคซีน Johnson & Johnson Covid-19 ทำงานโดยใช้ไวรัสที่ไม่รุนแรงทั่วไป (adenoviruses มักทำให้เกิดการติดเชื้อเช่นไข้หวัดธรรมดา) แก้ไขเพื่อให้ไวรัสไม่สามารถทำให้คุณป่วยได้ และเปลี่ยนรหัสพันธุกรรมของไวรัสเล็กน้อยเพื่อแทนที่ด้วยโปรตีน Spike ของ Covid-19 เพื่อให้ระบบภูมิคุ้มกันของคุณเรียนรู้ที่จะรับรู้

นั่นเป็นงานที่มีคุณค่าอย่างเหลือเชื่อ และวัคซีนที่พัฒนาด้วยเทคนิคเหล่านี้ได้ช่วยชีวิตผู้คน แต่งานในลักษณะนี้ได้รับความสนใจจากผู้เชี่ยวชาญด้วยว่ามีความเสี่ยงสูงต่อการใช้งานแบบคู่นั่นคือ งานวิจัยนี้มีประโยชน์สำหรับโครงการอาวุธชีวภาพด้วย นักวิจัยด้านความปลอดภัยทางชีวภาพ Jonas Sandbrink และ Gregory Koblentz แย้งเมื่อปีที่แล้ว

เกือบตลอดศตวรรษที่ 20 อาวุธเคมีและชีวภาพผลิต

ได้ยากและมีราคาแพง สำหรับวันที่ 21 ส่วนใหญ่จะไม่เป็นเช่นนั้น หากเราไม่ลงทุนในการจัดการการเปลี่ยนแปลงดังกล่าว และทำให้แน่ใจว่าอาวุธร้ายแรงนั้นไม่ได้ได้มาหรือผลิตมาโดยง่าย เราจะเสี่ยงที่บุคคล กลุ่มผู้ก่อการร้ายขนาดเล็ก หรือรัฐอันธพาลอาจทำอันตรายร้ายแรงได้

ความเสี่ยงของ AI เริ่มเป็นรูปธรรมมากขึ้นและไม่น่ากลัวน้อยลง

การวิจัย AI มีข้อกังวลในการใช้งานแบบคู่มากขึ้น ในช่วงทศวรรษที่ผ่านมา เนื่องจากระบบ AI มีประสิทธิภาพมากขึ้น นักวิจัยจำนวนมากขึ้น (แม้ว่าจะไม่ใช่ทั้งหมด) ได้เชื่อว่ามนุษยชาติจะพบกับภัยพิบัติ หากเราสร้างระบบ AI ที่ทรงพลังอย่างยิ่งโดยไม่ทำตามขั้นตอนที่เหมาะสมเพื่อให้แน่ใจว่าพวกเขาทำในสิ่งที่เราต้องการ พวกเขาทำ

ระบบ AI ใดๆ ก็ตามที่มีพลังมากพอที่จะทำสิ่งที่เราต้องการได้ เช่น คิดค้นยาใหม่ วางแผนกระบวนการผลิต ออกแบบเครื่องจักรใหม่ ก็มีพลังมากพอที่จะสร้างสารพิษร้ายแรง วางแผนกระบวนการผลิตที่มีผลข้างเคียงร้ายแรง หรือ ออกแบบเครื่องจักรที่มีข้อบกพร่องภายในที่เราไม่เข้าใจ

เมื่อทำงานกับระบบที่ทรงพลังขนาดนั้น อาจมีใครบางคนทำผิดพลาด ณ ที่แห่งใดที่หนึ่ง และชี้ระบบไปที่เป้าหมายที่ไม่สอดคล้องกับความปลอดภัยและเสรีภาพของทุกคนบนโลก การเปลี่ยนสังคมของเราให้เป็นระบบ AI ที่ทรงพลังมากขึ้นเรื่อยๆ แม้ว่าเราจะตระหนักดีว่าเราไม่เข้าใจจริงๆ ว่าพวกเขาทำงานอย่างไรหรือทำอย่างไรให้พวกเขาทำในสิ่งที่เราต้องการ ก็ถือเป็นความผิดพลาดครั้งใหญ่

แต่เนื่องจากการทำให้ระบบ AI สอดคล้องกับสิ่งที่เราต้องการนั้นยากมาก และเนื่องจากประสิทธิภาพที่ไม่สอดคล้องกันมักจะดีเพียงพอ อย่างน้อยก็ในระยะสั้น ถือเป็นความผิดพลาดที่เรากำลังดำเนินการอยู่

ฉันคิดว่านักวิจัยด้านแมชชีนเลิร์นนิงที่เก่งที่สุดและฉลาดที่สุดของเราควรใช้เวลาคิดเกี่ยวกับความท้าทายนี้ และพิจารณาการทำงานในองค์กรที่มีจำนวนเพิ่มขึ้นเรื่อยๆ ที่พยายามจะแก้ปัญหานี้

เมื่อข้อมูลมีความเสี่ยง

สมมติว่าคุณได้ค้นพบวิธีการสอนระบบ AI เพื่อพัฒนาอาวุธเคมีที่น่าสะพรึงกลัว คุณควรโพสต์บทความออนไลน์โดยอธิบายว่าคุณทำได้อย่างไร หรือเก็บข้อมูลนั้นไว้กับตัวเองโดยที่รู้ว่าอาจถูกนำไปใช้ในทางที่ผิด?

ในโลกของการรักษาความปลอดภัยคอมพิวเตอร์ มีขั้นตอนที่กำหนดไว้สำหรับสิ่งที่ต้องทำเมื่อคุณพบช่องโหว่ด้านความปลอดภัย โดยทั่วไป คุณจะรายงานไปยังองค์กรที่รับผิดชอบ (ค้นหาช่องโหว่ในคอมพิวเตอร์ Appleคุณบอก Apple) และให้เวลาพวกเขาในการแก้ไขก่อนที่จะบอกต่อสาธารณะ ความคาดหวังนี้รักษาความโปร่งใสในขณะที่ทำให้แน่ใจว่า “คนดี” ที่ทำงานในพื้นที่ความปลอดภัยของคอมพิวเตอร์ไม่ได้เพียงแค่ป้อนรายการสิ่งที่ต้องทำให้กับ “คนเลว” เท่านั้น

แต่ในวิชาชีววิทยาหรือปัญญาประดิษฐ์นั้นไม่มีอะไรที่คล้ายคลึงกัน โปรแกรมค้นหาไวรัสมักจะไม่เก็บเชื้อโรคที่อันตรายกว่าที่พวกเขาพบเป็นความลับจนกว่าจะมีมาตรการรับมือ พวกเขามักจะเผยแพร่ทันที เมื่อ OpenAI ชะลอการเปิดตัวเครื่องสร้างข้อความ GPT-2 เนื่องจากข้อกังวลในการใช้งานในทางที่ผิด พวกเขาถูกวิพากษ์วิจารณ์อย่างรุนแรงและถูกกระตุ้นให้เผยแพร่รายละเอียดทั้งหมดตามปกติ

ทีมงานที่ตีพิมพ์ กระดาษ Nature Machine Intelligenceฉบับล่าสุดได้ให้ความคิดอย่างมาก เกี่ยว กับข้อกังวลเรื่อง ” ข้อมูลอันตราย ” เหล่านี้ นักวิจัยกล่าวว่าพวกเขาได้รับคำแนะนำจากผู้เชี่ยวชาญด้านความปลอดภัยให้ระงับรายละเอียดบางอย่างว่าพวกเขาบรรลุผลได้อย่างไร เพื่อทำให้สิ่งต่างๆ ยากขึ้นเล็กน้อยสำหรับผู้ไม่หวังดีที่ต้องการเดินตามรอยเท้าของพวกเขา

การเผยแพร่รายงานของพวกเขาทำให้ความเสี่ยง

ของเทคโนโลยีเกิดใหม่เป็นรูปธรรมมากขึ้น และให้เหตุผลเฉพาะแก่นักวิจัย ผู้กำหนดนโยบาย และสาธารณชนที่ต้องให้ความสนใจ ในที่สุดมันเป็นวิธีการอธิบายเทคโนโลยีที่มีความเสี่ยงในลักษณะที่อาจลดความเสี่ยงโดยรวม

ถึงกระนั้น มันไม่ยุติธรรมอย่างยิ่งต่อชีววิทยาโดยเฉลี่ยของคุณหรือนักวิจัย AI ซึ่งไม่ได้เชี่ยวชาญในประเด็นด้านความปลอดภัยของข้อมูล ที่จะต้องโทรออกแบบเฉพาะกิจ ผู้เชี่ยวชาญด้านความมั่นคงแห่งชาติ ความปลอดภัย AI และความปลอดภัยทางชีวภาพควรทำงานร่วมกันในกรอบการทำงานที่โปร่งใสในการจัดการความเสี่ยงด้านข้อมูล ดังนั้นนักวิจัยแต่ละคนสามารถปรึกษาผู้เชี่ยวชาญซึ่งเป็นส่วนหนึ่งของกระบวนการเผยแพร่ แทนที่จะพยายามหาคำตอบด้วยตนเองสล็อตแตกง่าย