Az Önhöz hasonló olvasók támogatják a MUO-t. Amikor a webhelyünkön található linkek használatával vásárol, társult jutalékot kaphatunk. Olvass tovább.

Az Apple 2021 augusztusában bejelentette, hogy átvizsgálja az iCloud-tartalmakat gyermekek szexuális zaklatását használó anyagok (CSAM) keresésére, hogy megvédje a gyermekeket a ragadozók általi visszaélésektől.

A vállalat egy új CSAM-észlelési funkció bevezetését tervezte az iCloud Photosban, amely ilyen tartalmakat keres, és az egyező képeket jelentené az Apple-nek, miközben megőrzi a felhasználók adatait.

Az új funkció azonban vegyes reakciókat váltott ki. A kezdeti bejelentés óta több mint egy éve az Apple hivatalosan is lemond arról, hogy az iCloud Photos CSAM-re szkennelje.

Az Apple felhagy azzal a tervével, hogy az iCloudon átvizsgálja a gyermekbántalmazási anyagokat

A jelentése szerint VEZETÉKES, az Apple eláll attól a tervétől, hogy átvizsgálja az iCloud-ot, hogy nincs-e benne gyermekbántalmazás. Az eszköz beszkennelné az iCloudon tárolt fényképeket, hogy megtalálja azokat, amelyek megegyeznek a gyermekbiztonsági szervezetek által azonosított ismert CSAM-képekkel. Ezt követően jelentheti ezeket a képeket, mivel a CSAM-képek birtoklása a legtöbb joghatóságban illegális, beleértve az Egyesült Államokat is.

Miért mondta le az Apple az iCloud-fotók szkennelésére vonatkozó tervét?

A 2021-es kezdeti bejelentést követően az Apple-nek szembe kellett néznie az ügyfelek, csoportok és magánszemélyek visszajelzéseivel, akik világszerte szorgalmazzák a digitális adatvédelmet és biztonságot. Az iPhone készülékek általában nagyobb biztonságot nyújtanak, mint az Android készülékek, és sokan ezt visszalépésnek tekintették. Noha ez a gyermekbiztonsági szervezetek nyereménye volt, több mint 90 politikai csoport nyílt levelet írt az Apple-nek még ugyanabban a hónapban, amelyben felszólította a vállalatot, hogy mondjon le a tervről.

A levél azzal érvelt, hogy míg az eszköz szándékában áll megvédeni a gyerekeket a bántalmazástól, felhasználható a szólásszabadság cenzúrázására, és veszélyeztetheti a felhasználók magánéletét és biztonságát. A növekvő nyomás miatt az Apple leállította bevezetési terveit, hogy visszajelzéseket gyűjtsön és elvégezze a funkció szükséges módosításait. A visszajelzések azonban nem kedveztek az Apple iCloud Photos szkennelésének tervének, így a cég hivatalosan végleg elveti a terveit.

A WIRED-nek adott nyilatkozatában a cég azt mondta:

"Nekünk van... úgy döntött, hogy nem folytatja a korábban javasolt CSAM-észlelő eszközünket az iCloud Photos számára. A gyermekek megvédhetők anélkül, hogy a vállalatok átfésülnék a személyes adatokat, és továbbra is együttműködünk a kormányokkal, a gyermekvédőkkel és más cégek, hogy segítsenek megvédeni a fiatalokat, megőrizni a magánélethez való jogukat, és biztonságosabb hellyé tenni az internetet a gyermekek és számunkra minden."

Az Apple új terve a gyermekek védelmére

Az Apple átirányítja erőfeszítéseit a 2021 augusztusában bejelentett és ugyanazon év decemberében elindított kommunikációs biztonsági funkciók fejlesztésére.

A kommunikációs biztonság opcionális, és a szülők és gyámok használhatják, hogy megvédjék a gyermekeket a nyíltan szexuális tartalmú képek iMessage-ben való küldésétől és fogadásától. A funkció automatikusan elhomályosítja az ilyen fényképeket, és a gyermek figyelmeztetést kap az ezzel járó veszélyekre. Arra is figyelmeztet mindenkit, ha CSAM-ot próbál keresni Apple-eszközökön.

Mivel a CSAM-észlelő eszköz bevezetésének tervét törölték, a vállalat a funkció további fejlesztését és további kommunikációs alkalmazásokra való kiterjesztését várja.