Apple จะสแกน iCloud ในการค้นหาภาพที่มีความรุนแรงต่อเด็ก

รูปภาพของผู้เขียน
stealth

เรารู้ว่า Apple คุณใส่ใจอย่างมากเกี่ยวกับการรักษาความลับของข้อมูลที่ส่งผ่านอุปกรณ์ในระบบนิเวศและได้รับการปกป้องอย่างดีจากการสอดรู้สอดเห็น อย่างไรก็ตาม นี่ไม่ได้หมายความว่าผู้ใช้ไม่ควรปฏิบัติตามกฎที่เกี่ยวข้องกับจริยธรรม คุณธรรม และเหตุใดจึงไม่ควรปฏิบัติตาม

Apple ได้ประกาศว่าเร็ว ๆ นี้จะเปิดตัวเทคโนโลยีที่สามารถสแกนภาพทั้งหมดที่จัดเก็บโดยผู้ใช้ใน iCloud และเพื่อระบุภาพถ่ายที่มีการล่วงละเมิดทางเพศต่อเด็ก สื่อการล่วงละเมิดทางเพศเด็ก (CSAM)
เทคโนโลยีนี้จะเปิดตัวโดย Apple ในช่วงปลายปีนี้ ซึ่งมีแนวโน้มว่าจะเป็นเวอร์ชันนำร่องสำหรับผู้ใช้จำนวนน้อย

หากคุณสงสัยว่า "ข้อมูลเป็นความลับอยู่ที่ไหน" ให้ค้นหาว่าทุกสิ่งที่เราได้รับเนื้อหา วิดีโอ / ภาพถ่าย มันทำผ่านโปรโตคอลที่เข้ารหัส รวมถึงการจัดเก็บข้อมูลใน iCloud มีการเข้ารหัส แต่ผู้ให้บริการดังกล่าวมีคีย์ในการเข้ารหัสข้อมูล ที่นี่เราพูดไม่เฉพาะของ Apple. Microsoft, Google และบริการจัดเก็บข้อมูลอื่น ๆ ใน cloud ฉันทำสิ่งเดียวกัน

ข้อมูลที่เก็บไว้สามารถถอดรหัสและตรวจสอบได้หากมีการร้องขอในการดำเนินการทางกฎหมายหรือหากพวกเขาละเมิดกฎหมายอย่างโจ่งแจ้ง เช่น การกระทำที่เกี่ยวกับการใช้ความรุนแรงต่อเด็กและสตรี

เพื่อให้ผู้ใช้เป็นความลับ บริษัทอาศัยเทคโนโลยีใหม่ที่เรียกว่า NeuralHash ซึ่งจะสแกนภาพถ่ายจาก iCloud และจะระบุภาพที่มีความรุนแรงต่อเด็กโดยเปรียบเทียบกับภาพอื่นๆ ในฐานข้อมูล
คล้ายกับการจดจำใบหน้าหรือการจดจำวัตถุ สัตว์ และองค์ประกอบอื่นๆ อย่างชาญฉลาด

เทคโนโลยีนี้จะสามารถสแกนและตรวจสอบรูปภาพที่ถ่ายหรือถ่ายโอนผ่านอุปกรณ์ iPhone, iPad หรือ Mac ได้ แม้ว่าจะมีการปรับเปลี่ยนก็ตาม

ฉันยินดีที่จะแบ่งปันประสบการณ์ของฉันในด้านคอมพิวเตอร์ โทรศัพท์มือถือ และระบบปฏิบัติการ เพื่อพัฒนาโครงการเว็บ และนำบทช่วยสอนและคำแนะนำที่มีประโยชน์ที่สุด ฉันชอบที่จะ "เล่น" บน iPhone MacBook Pro, iPad, AirPort Extreme และบนระบบปฏิบัติการ macOS, iOS, Android และ Windows.

แสดงความคิดเห็น