2021 augusztusában az Apple nyilvánosságra hozta azt a tervét, hogy az iPhone -okat szkenneli a gyermekek szexuális bántalmazása miatt. A lépés tapsot váltott ki a gyermekvédelmi csoportok részéről, de aggodalmat keltett a magánéleti és biztonsági szakértők körében azzal kapcsolatban, hogy a funkcióval vissza lehet élni.
Az Apple eredetileg azt tervezte, hogy az iOS 15 -be beépíti a CSAM (Child Sexual Abuse Material) szkennelési technológiát; ehelyett határozatlan időre elhalasztotta a funkció megjelenését, hogy visszajelzést kérjen a teljes megjelenés előtt.
Tehát miért vált heves vita tárgyává a CSAM észlelési funkció, és mi késztette az Apple -t a bevezetés elhalasztására?
Mit tesz az Apple fotószkennelési funkciója?
Az Apple bejelentette, hogy a gyermekek szexuális zaklatásának leküzdése érdekében megvalósítja a fényképek szkennelését. Az Apple -felhasználók készülékein található összes fotót pedofíliás tartalom keresésére használjuk az Apple által létrehozott "NueralHash" algoritmus segítségével.
Ezenkívül a gyermekek által használt minden Apple -eszköz rendelkezik biztonsági funkcióval, amely automatikusan bekapcsol elmossa a felnőtt képeket, ha gyermek kapja őket, és a felhasználó kétszer figyelmezteti, ha megpróbálják kinyitni őket.
A felnőtteknek való kitettség minimalizálása mellett, ha a szülők regisztrálják a gyermekeik tulajdonában lévő eszközöket további biztonság érdekében a szülőket értesítik, ha a gyermek bárkitől kifejezett tartalmat kap online.
Olvass tovább: Amit az Apple gyermekbiztonsági védelmeiről tudni kell
Ami a felnőtteket illeti, akik a Siri segítségével bármit keresnek, ami szexualizálja a gyerekeket, a Siri nem fogja ezt a keresést végezni, és más alternatívákat javasolni.
Az algoritmusok által gyanúsnak ítélt, 10 vagy több fotót tartalmazó bármely eszköz adatai dekódolásra kerülnek, és emberi ellenőrzésnek vetik alá.
Ha ezek a fényképek vagy bármely más eszköz a készüléken kiderül, hogy megegyezik a megadott adatbázisból származó adatokkal Az eltűnt és kizsákmányolt gyermekek nemzeti központja, jelentést tesznek a hatóságoknak, és a felhasználó fiókját felfüggesztjük.
Fő aggályok a fénykép-szkennelési funkcióval kapcsolatban
A CSAM észlelési funkció az iOS 15 2021 szeptemberi bevezetésével élesedett volna, de szembe kell néznie A széles körű felháborodás miatt az Apple úgy döntött, hogy több időt szán a visszajelzések gyűjtésére és ezen a területen javításokra funkció. Itt van Az Apple teljes nyilatkozata a késésről:
"A múlt hónapban bejelentettük azokat a funkciókat, amelyek célja, hogy megvédjék a gyerekeket a ragadozóktól kommunikációs eszközökkel toborozza és használja ki őket, és korlátozza a gyermeki szexuális zaklatás terjedését Anyag.
Az ügyfelek, érdekképviseleti csoportok, kutatók és mások visszajelzései alapján úgy döntöttünk, hogy több időt szánunk rá az elkövetkező hónapokban, hogy összegyűjtsék az adatokat és javítsanak, mielőtt e kritikusan fontos gyermekbiztonságot kiadják jellemzők".
Az Apple fotószkennelési funkciójával kapcsolatos aggodalmak közel fele a magánélet körül forog; a többi érv magában foglalja az algoritmusok valószínű pontatlanságát és a rendszer vagy annak kiskapuinak esetleges visszaélését.
Bontsuk négy részre.
Lehetséges visszaélés
Annak tudatában, hogy a gyermekpornográfiának megfelelő anyagok vagy a gyermekek szexuális bántalmazásának ismert képei egy eszközt a "gyanús" listára kerülnek, mozgásba hozhatja a kiberbűnözőket.
Szándékosan bombázhatnak személyt nem megfelelő tartalommal az iMessage, a WhatsApp vagy bármely más eszköz segítségével, és felfüggeszthetik az illető fiókját.
Az Apple biztosította, hogy a felhasználók fellebbezést nyújthatnak be, ha félreértés miatt felfüggesztették fiókjaikat.
Bennfentes visszaélés
Bár ezt a funkciót jóindulatú célokra tervezték, bizonyos emberek számára teljes katasztrófává válhat, ha készülékei a kommunikációjuk figyelemmel kísérésében érdekelt hozzátartozók regisztrálják a rendszerbe, tudtukkal vagy anélkül.
Még ha ez nem is történik meg, az Apple létrehozott egy hátsó ajtót, amely a nap végén hozzáférhetővé teszi a felhasználók adatait. Most motiváció és elhatározás kérdése, hogy az emberek hozzáférjenek mások személyes adataihoz.
Összefüggő: Mi az a hátsó ajtó és mire jó?
Ez nemcsak elősegíti a magánélet jelentős megsértését, hanem utat nyit a visszaélésszerű, mérgező vagy ellenőrzéshez rokonok, gyámok, barátok, szerelmesek, gondozók és exek, hogy tovább támadják valakinek a személyes helyét vagy korlátozzák szabadság.
Egyrészt a gyermekek szexuális bántalmazásának leküzdésére szolgál; másfelől másfajta bántalmazások további állandósítására használható.
Kormányzati felügyelet
Az Apple mindig is magánélet-tudatosabb márkának nevezte magát, mint versenytársai. De most lehet, hogy csúszós lejtőre lép, amikor teljesítenie kell az átláthatóság soha véget nem érő követelményeit felhasználói adatok a kormányok részéről.
A pedofília tartalom észlelésére létrehozott rendszer bármilyen típusú tartalom észlelésére használható a telefonokon. Ez azt jelenti, hogy a kultikus mentalitású kormányok személyesebb szinten is figyelemmel kísérhetik a felhasználókat, ha kézbe veszik.
Elnyomó vagy sem, a kormány részvétele a mindennapi és személyes életében idegesítő lehet, és sérti a magánéletét. A gondolat, hogy csak akkor kell aggódnia az ilyen támadások miatt, ha valamit rosszul csinált, hibás gondolkodás, és nem látja a fent említett csúszós lejtőt.
Hamis riasztások
Az algoritmusok egyik legnagyobb aggodalma a képek adatbázishoz való illesztésében a hamis riasztások. A kivonatoló algoritmusok tévesen azonosíthatnak két fotót egyezésként, még akkor is, ha nem azonosak. Ezek az ütközéseknek nevezett hibák különösen riasztóak a gyermekekkel való szexuális bántalmazással kapcsolatos tartalmak kapcsán.
A kutatók számos ütközést találtak a "NeuralHash" -ban, miután az Apple bejelentette, hogy az algoritmust fogja használni a képek szkenneléséhez. Az Apple a hamis riasztásokkal kapcsolatos kérdésekre válaszolva rámutatott, hogy az eredményt a végén ember fogja felülvizsgálni, így az embereknek nem kell aggódniuk emiatt.
Az Apple CSAM szünete állandó?
Az Apple által javasolt funkciónak számos előnye és hátránya van. Mindegyikük eredeti és súlya van. Még mindig nem világos, hogy az Apple milyen konkrét változtatásokat vezethet be a CSAM-szkennelési szolgáltatásba, hogy kielégítse kritikusait.
A szkennelést a megosztott iCloud -albumokra korlátozhatja, ahelyett, hogy bevonná a felhasználók eszközeit. Nagyon valószínűtlen, hogy az Apple teljesen elhagyja ezeket a terveket, mivel a vállalat általában nem hajlandó engedni terveinek.
A széles körben elterjedt ellenérzésekből és az Apple tervének visszatartásából azonban kiderül, hogy a vállalatoknak kezdettől fogva be kell építeniük a kutatóközösséget, különösen a nem tesztelt személyek esetében technológia.
A gyermekek az elsődleges célpontok az online ragadozók és a számítógépes zaklatók számára. Ezek a praktikus tippek megtaníthatják a szülőket arra, hogyan tartsák biztonságban őket az interneten.
Olvassa tovább
- Biztonság
- IPhone
- Okostelefon adatvédelem
- alma
- Online adatvédelem
- Felügyelet
Fawad informatikai és kommunikációs mérnök, vállalkozó törekvő és író. 2017 -ben lépett a tartalomírás területére, és azóta két digitális marketing ügynökséggel, valamint számos B2B és B2C ügyféllel dolgozott együtt. A MUO biztonságáról és technikájáról ír, azzal a céllal, hogy oktassa, szórakoztassa és vonzza a közönséget.
Iratkozzon fel hírlevelünkre
Csatlakozz hírlevelünkhöz, ahol technikai tippeket, értékeléseket, ingyenes e -könyveket és exkluzív ajánlatokat találsz!
Feliratkozáshoz kattintson ide