Apple prend des mesures pour la protection des enfants


Apple a annoncé trois nouvelles mesures pour la protection des enfants utilisant ses produits. Elles seront mises en place au sein de iOS 15 et iPadOS 15, macOS 12 Monterey et watchOS 8 aux États-Unis (et uniquement aux États-Unis) un peu plus tard cette année.

La première concerne l'application iMessage et l'exposition des enfants à des contenus indésirables. L'application de messagerie d'Apple va analyser les images reçues pour tenter de déterminer s'il s'agit de photos sexuelles. Si c'est le cas, la photo sera automatiquement floutée et le jeune utilisateur sera averti de la potentielle nature de l'image : il pourra choisir de la visionner, mais avec la possibilité pour les parents de recevoir une notification dans ce cas. La détection des images se fera directement sur les appareils concernés, sans qu'Apple ait accès aux photos et messages en question. Ce système fonctionnera également pour l'envoi de contenus sensibles.


Protection enfants iMessage

La deuxième concerne la détection d'images pédopornographiques stockées sur iCloud Photos. Apple va utiliser une fonction de hachage appelé NeuralHash pour comparer les photos des utilisateurs à des banques de données connues. Là aussi, la signature unique NeuralHash de chaque image sera réalisée sur les appareils directement pour préserver la vie privée des utilisateurs. S'il est détecté que plusieurs images correspondent à des photos CSAM (Child Sexual Abuse Material) déjà connues, les images concernées stockées sur iCloud seront analysées manuellement par Apple : s'il est avéré qu'il s'agit bien de contenus prohibés, Apple saisira alors le NCMEC (National Center for Missing and Exploited Children), qui travaille avec les autorités américaines.


Fonctionnement détection CSAM Apple

La troisième, qui découle directement de la précédente, concerne l'intégration de ressources additionnelles au sein de Siri et de la recherche de l'iPhone pour aider les enfants et les parents qui cherchent à se renseigner sur des situations à risque. Il sera par exemple possible de demander à Siri comment faire pour signaler un cas d'abus.


Siri CSAM

L'annonce de l'analyse d'images sur iCloud Photos a été globalement mal reçue par les spécialistes en sécurité. Bien que ce système parte bien évidemment d'une bonne intention, il pourrait théoriquement être utilisé pour tout un tas d'autres choses. Et si les autorités de tel ou tel pays imposaient l'utilisation de NeuralHash pour d'autres types de contenus ?
Des liens n'apparaissent pas ? Des images sont manquantes ? Votre bloqueur de pub vous joue des tours. Pour visualiser tout notre contenu, merci de désactiver votre bloqueur de pub !

Partager

Retrouvez l'iPhone sur notre comparateur de prix.

Sur le même sujet

Vos réactions (18)

Odawin

6 août 2021 à 09:24

Je pense exactement la même chose que la conclusion de l'article. Ca part d'une bonne intention avec l'envie de bien faire, MAIS une fois en route ce genre de chose ne demande que de petites modifications au niveau du code pour l'exploiter à tout un tas d'autres choses très facilement.

Au final je pense que c'est plus une fausse bonne idée qu'autre chose.

gigatoaster

6 août 2021 à 09:53

Oui, cela porte d’une bonne intention mais ce sera forcément détourné, malheureusement.

Bizarre d’avoir sortie cette fonctionnalité maintenant il doit y avoir une question de timing à creuser.

matt

6 août 2021 à 10:33

La première mesure existe déjà sur Instagram et ça marche très bien.

J’avoue que les deux autres mesures me font douter aussi un peu …

VanZoo

6 août 2021 à 11:44

On commence par de belles initiatives (technique du pied dans la porte) puis on finit par flouter, recenser et transmettre tout ce qui potentiellement ne conviendrait pas aux GAFAM donc à leurs entités supérieures, les fonds de pension, eux-mêmes en lien avec les politiques.
Tu transmets des données comme quoi tu es malade, ton assurance santé sera informée.
La société de contrôle absolue !

Tom

6 août 2021 à 12:19

C’est particulièrement inquiétant cette mesure. Et cela va à l’encontre de tout ce que met en avant Apple concernant le respect de la vie privée depuis quelques années

wKns

6 août 2021 à 13:34

Comment le hash peut-il fonctionner avec tous les algos de compression ? Si l’image est envoyée par WhatsApp ou IMessage la compression est différente et donc le hash aussi. A moins d’avoir la représentation de l’image hashée pour toutes les compressions (impossible) ça ne marchera pas et comme le principe du hash est justement de ne pas pouvoir remonter à l’info y’a un truc qui cloche…

LoTsey

6 août 2021 à 16:58

Ça sent mauvais.

DKSnake

6 août 2021 à 17:31

Ces trois mesures sont un aveu sur le fait qu'Apple ait accès à toutes les données qui passent par leurs produits ou services malgré leur propagande sur la protection de la vie privée et le chiffrement.

Il devient urgent qu'il y ait un contre pouvoir pour lutter contre ce type de pratique.

Sethenès

6 août 2021 à 17:36

Il faut absolument que tout le monde parte de l'idée que tout ce qui est un jour posté sur internet deviendra publique. Donc la parade est simple : ne rien publier de ce que vous ne voulez pas voir publier sur le web.

Et ce d'autant plus si vous stockez ce matériel sur un site situé à l'autre bout de la terre !

Et si vous avez un doute, je rappelle qu'aujourd'hui, les messages hypersécurisés envoyé par Enigma sont tous craqués !

VanZoo

6 août 2021 à 20:21

Donc, @Sethenes, ma sextape avec Scarlett Johansson va se retrouver sur le net ?

ijef

6 août 2021 à 20:23

Dramatique initiative qui est une erreur majeur d'Apple depuis ces 10 dernières années qui va leur couter cher. Inouïe ! Pour la 1ère fois de son histoire Apple a décidé de s'introduire dans la vie privé de leur client. en scannant leur photos ! Même si 99,99% de leurs clients n'ont strictement rien à se reprocher, qui peut accepter de mes photos, vos photos soient scannées, vérifiées peut etre par erreur de reconnaissance, signalées par erreur aussi ? En outre, qu'est ce qui peut garantir qu'Apple n'iras pas plus loin sur d'autres contrôles ? Apple est un constructeur fabricant de produits, pas une annexe du FBI, à partir du moment ou il décide de passer outre, leurs produits ne sont plus surs en terme de contenu. Vais je acheter le nouveau MacBook Pro M1 de la rentrée ... pas si sur je vais réfléchir. Terrible erreur.

LolYangccool

6 août 2021 à 21:15

@Sethenès : Je suis d'accord avec toi, mais alors il faudrait un autre moyen de synchroniser ses données, ici les photos.
Je me sert d'iCloud pour synchroniser mes photos sur mes différentes machines.
Puis même les messages seront scannés... C'est très grave.
Il faudrait qu'Apple libère iCloud en open source pour que chacun puisse s'installer une instance.
Mais ils ne feront jamais ça, ça règlerai le problème de la vie privée, enfin, au moins pour les geeks qui installeront les outils sur du matériel leur appartenant (et PAS en datacenter).

VanZoo

6 août 2021 à 21:44

De plus, étant donné la dépendance d’Apple à la Chine, les risques sont décuplés (Facebook collabore déjà avec la dictature chinoise)
D’ailleurs, peut-être Apple a t-elle choisie cette orientation pour satisfaire à certaines problématiques politiques et géopolitiques…
Cette décision est grave !

Sethenès

6 août 2021 à 23:38

@LYC : mes photos : mon Cloud Synology !

Pour le reste, je n'ai confiance dans AUCUNE compagnie commerciale, et plus spécialement celles qui ne dépendent pas entièrement du droit européen !

En soi, pour moi, cette info est donc une non-information. Mais au moins, maintenant on en a la certitude.

pehache

7 août 2021 à 19:00

"Ce qui est sur votre iPhone reste sur votre iPhone... enfin presque..."

Macintosh

7 août 2021 à 19:05

C’est totalement incompatible avec le positionnement d’Apple qui se présentait comme soucieuse du respect des données privées. C’est une grosse erreur marketing de la jouer comme Google.

clive-guilde

9 août 2021 à 11:29

ma réflexion de passage de Android vers iPhone pour justement avoir un meilleur contrôle que la vie privée se retrouve à nouveau en grand questionnement

LolYangccool

9 août 2021 à 12:55

@Sethenès : Oui d'accord mais tu peux synchroniser l'appli photos de l'iPhone avec le Mac avec ton cloud synology ?
C'est l'intégration qui est super bonne ici.

Réagir
Vous devez être connecté à notre forum pour pouvoir poster un commentaire.

Plus loin Connexion
Plus loin Inscription