เรารู้ว่า Apple คุณใส่ใจอย่างมากเกี่ยวกับการรักษาความลับของข้อมูลที่ส่งผ่านอุปกรณ์ในระบบนิเวศและได้รับการปกป้องอย่างดีจากการสอดรู้สอดเห็น อย่างไรก็ตาม นี่ไม่ได้หมายความว่าผู้ใช้ไม่ควรปฏิบัติตามกฎที่เกี่ยวข้องกับจริยธรรม คุณธรรม และเหตุใดจึงไม่ควรปฏิบัติตาม
Apple ได้ประกาศว่าเร็ว ๆ นี้จะเปิดตัวเทคโนโลยีที่สามารถสแกนภาพทั้งหมดที่จัดเก็บโดยผู้ใช้ใน iCloud และเพื่อระบุภาพถ่ายที่มีการล่วงละเมิดทางเพศต่อเด็ก สื่อการล่วงละเมิดทางเพศเด็ก (CSAM)
เทคโนโลยีนี้จะเปิดตัวโดย Apple ในช่วงปลายปีนี้ ซึ่งมีแนวโน้มว่าจะเป็นเวอร์ชันนำร่องสำหรับผู้ใช้จำนวนน้อย
หากคุณสงสัยว่า "ข้อมูลเป็นความลับอยู่ที่ไหน" ให้ค้นหาว่าทุกสิ่งที่เราได้รับเนื้อหา วิดีโอ / ภาพถ่าย มันทำผ่านโปรโตคอลที่เข้ารหัส รวมถึงการจัดเก็บข้อมูลใน iCloud มีการเข้ารหัส แต่ผู้ให้บริการดังกล่าวมีคีย์ในการเข้ารหัสข้อมูล ที่นี่เราพูดไม่เฉพาะของ Apple. Microsoft, Google และบริการจัดเก็บข้อมูลอื่น ๆ ใน cloud ฉันทำสิ่งเดียวกัน
ข้อมูลที่เก็บไว้สามารถถอดรหัสและตรวจสอบได้หากมีการร้องขอในการดำเนินการทางกฎหมายหรือหากพวกเขาละเมิดกฎหมายอย่างโจ่งแจ้ง เช่น การกระทำที่เกี่ยวกับการใช้ความรุนแรงต่อเด็กและสตรี
เพื่อให้ผู้ใช้เป็นความลับ บริษัทอาศัยเทคโนโลยีใหม่ที่เรียกว่า NeuralHash ซึ่งจะสแกนภาพถ่ายจาก iCloud และจะระบุภาพที่มีความรุนแรงต่อเด็กโดยเปรียบเทียบกับภาพอื่นๆ ในฐานข้อมูล
คล้ายกับการจดจำใบหน้าหรือการจดจำวัตถุ สัตว์ และองค์ประกอบอื่นๆ อย่างชาญฉลาด
เทคโนโลยีนี้จะสามารถสแกนและตรวจสอบรูปภาพที่ถ่ายหรือถ่ายโอนผ่านอุปกรณ์ iPhone, iPad หรือ Mac ได้ แม้ว่าจะมีการปรับเปลี่ยนก็ตาม