Ειδήσεις

Η Google στη μάχη κατά παιδικής κακοποίησης

Σχεδόν 100.000 λογαριασμοί χρηστών στους οποίους εντοπίστηκε υλικό σεξουαλικής κακοποίησης παιδιών απενεργοποιήθηκαν από την Google παγκοσμίως και περισσότερα από 210.000 URL αφαιρέθηκαν από το ευρετήριο της αναζήτησης, το τελευταίο εξάμηνο του 2020. Την ίδια περίοδο, για σχεδόν τρία εκατομμύρια τμήματα περιεχομένου (εικόνες, βίντεο, συνδέσμους URL, κείμενα) που εντοπίστηκαν σε Google και YouTube η εταιρεία υπέβαλε αναφορά στο αμερικανικό εθνικό κέντρο για τα εξαφανισμένα και υπό εκμετάλλευση παιδιά (National Center for Missing and Exploited Children-NCMEC).

Οι προσπάθειες της Google για τον εντοπισμό και την καταπολέμηση του υλικού σεξουαλικής κακοποίησης παιδιών στο Διαδίκτυο εντείνονται χρόνο με τον χρόνο. Σε ολόκληρη την εταιρεία ομάδες εργάζονται διαρκώς για τον εντοπισμό, την κατάργηση και την αναφορά αυτού του περιεχομένου, χρησιμοποιώντας έναν συνδυασμό κορυφαίων στον κλάδο αυτοματοποιημένων εργαλείων εντοπισμού και ειδικά εκπαιδευμένων αναθεωρητών – εργαζόμενοι που αναλαμβάνουν να «διδάσκουν» τα τεχνολογικά εργαλεία να αναγνωρίζουν το παράνομο, ειδεχθές αυτό περιεχόμενο και στη συνέχεια ελέγχουν ό,τι εντοπίζει το λογισμικό, για να επιβεβαιώσουν ότι ανήκει στη διωκόμενη κατηγορία υλικού. Η Google επίσης λαμβάνει αναφορές από τρίτα μέρη και από τους χρήστες της, γεγονός που λειτουργεί συμπληρωματικά και ενισχυτικά στις δικές της προσπάθειες, και ταυτόχρονα μοιράζεται τα εργαλεία που έχει στη διάθεσή της με άλλες τεχνολογικές εταιρείες και οργανισμούς που δεσμεύονται να διασφαλίσουν την προστασία των παιδιών ανά τον πλανήτη. Το υλικό σεξουαλικής κακοποίησης παιδιών αναφέρεται στη συνέχεια στο αμερικανικό εθνικό κέντρο για τα εξαφανισμένα και υπό εκμετάλλευση παιδιά, το οποίο λειτουργεί ως γραφείο πληροφοριών και αποκλειστικό κέντρο αναφοράς στις Ηνωμένες Πολιτείες για ζητήματα που σχετίζονται με την εκμετάλλευση των παιδιών. Το NCMEC μπορεί να στείλει αυτές τις αναφορές σε υπηρεσίες επιβολής του νόμου σε ολόκληρο τον κόσμο.

Ο εντοπισμός

Τα εργαλεία στα οποία έχει επενδύσει η εταιρεία τα τελευταία χρόνια, αξιοποιώντας κορυφαίες τεχνολογίες, είναι τόσο το στοχευμένο λογισμικό όσο και η μηχανική μάθηση (machine learning). Το λογισμικό CSAI Match αναπτύχθηκε από τους μηχανικούς υπολογιστών του YouTube και μπορεί να αναγνωρίσει περιεχόμενο παιδικής σεξουαλικής κακοποίησης που έχει ήδη εντοπιστεί σε βίντεο, όταν αυτό ξανανέβει σε κάποια πλατφόρμα της Google. Η τεχνολογία μηχανικής μάθησης βοηθάει στην αναγνώριση του παράνομου υλικού σε πρωτοεμφανιζόμενο περιεχόμενο. Τα εργαλεία αυτά, τα οποία αναβαθμίζονται και βελτιώνονται διαρκώς, επιτρέπουν στους υπεύθυνους της εταιρείας να σκανάρουν αποτελεσματικά τις πλατφόρμες της και να αναγνωρίζουν το εν λόγω περιεχόμενο άμεσα, ώστε αυτό να αφαιρείται, να αναφέρεται στα αρμόδια όργανα και να απενεργοποιούνται οι λογαριασμοί ταχύτατα. Οι moderators της εταιρείας είναι επιφορτισμένοι να ελέγχουν το υλικό που ορίστηκε ως ύποπτο από τα τεχνολογικά εργαλεία για να επικυρώσουν ή όχι τον χαρακτηρισμό. Για τους εργαζομένους αυτούς, που έρχονται σε επαφή με σκληρές, σοκαριστικές, απεχθείς εικόνες υπάρχει πρόβλεψη προστασίας της ψυχικής και πνευματικής τους υγείας, διαβεβαιώνει η Google, καθώς έχουν τεθεί αυστηρά όρια στον όγκο του περιεχομένου που ελέγχουν καθημερινά, λαμβάνουν υποστήριξη από ειδικούς και ενθαρρύνονται να συμμετέχουν σε ειδικά σχεδιασμένες δραστηριότητες αποφόρτισης.

Η ισχύς εν τη ενώσει

Με δεδομένο ότι το πρόβλημα είναι παγκόσμιο, υπάρχει στενή συνεργασία μεταξύ εταιρειών τεχνολογίας και οργανισμών παιδικής προστασίας, η οποία περιλαμβάνει τη διάθεση εργαλείων και την ανταλλαγή δεδομένων και στοιχείων. Η Google μοιράζεται με το αμερικανικό εθνικό κέντρο για τα εξαφανισμένα και υπό εκμετάλλευση παιδιά hashes, δηλαδή μοναδικά ψηφιακά δαχτυλικά αποτυπώματα, που αφήνει το παράνομο υλικό στο Διαδίκτυο, τα οποία καταχωρίζονται στη βάση δεδομένων του Κέντρου και έτσι εμποδίζεται η επανακυκλοφορία αυτού του περιεχομένου και η επαναθυματοποίηση των κακοποιημένων παιδιών. Επίσης, από το 2018 η εταιρεία ανέπτυξε και εισήγαγε την ομάδα εργαλείων Content Safety API που χρησιμοποιεί τεχνολογία τεχνητής νοημοσύνης, η οποία βοηθάει οργανισμούς να κατηγοριοποιήσουν και να ελέγξουν κατά προτεραιότητα το περιεχόμενο που είναι πιθανότερο να συνιστά υλικό παιδικής σεξουαλικής κακοποίησης. Το API χρησιμοποιείται σήμερα από μη κυβερνητικές οργανώσεις όπως η SaferNet Brazil και εταιρείες όπως το Facebook και η Yubo και μαζί με το λογισμικό CSAI Match προσφέρονται δωρεάν σε οργανισμούς και εταιρείες διεθνώς. Το 2020, το ΑΡΙ χρησιμοποιήθηκε για να κατηγοριοποιηθούν περισσότερες από δύο δισεκατομμύρια εικόνες από συνεργαζόμενες με την Google εταιρείες, βοηθώντας τες να εντοπίσουν ταχύτερα και με μεγαλύτερη ακρίβεια το εν λόγω περιεχόμενο.

Επίσης, το περυσινό καλοκαίρι επανασχεδιάστηκε και επεκτάθηκε μια λειτουργία που προειδοποιεί τους χρήστες που πραγματοποιούν αναζητήσεις σχετικές με υλικό παιδικής σεξουαλικής κακοποίησης ότι αυτό το υλικό είναι παράνομο, τους δίνει οδηγίες για το πώς μπορούν να αναφέρουν το περιεχόμενο στις τοπικές αστυνομικές αρχές και τους παρέχει ενημέρωση για τις μη κυβερνητικές οργανώσεις που υποστηρίζουν παιδιά θύματα και τις οικογένειές τους. Και αυτό δείχνει ότι λειτουργεί: εκατοντάδες χιλιάδες χρήστες μηνιαίως επισκέπτονται τις ιστοσελίδες ή καλούν το τηλεφωνικό κέντρο αυτών των οργανώσεων. Ταυτόχρονα έχει παρατηρηθεί ότι, όταν κάποιος δει στην οθόνη του αυτή την προειδοποίηση, είναι λιγότερο πιθανό να συνεχίσει με νέα αναζήτηση για ανάλογο περιεχόμενο.

Πηγή: kathimerini.gr

Σχολιασμός Άρθρου

Τα σχόλια εκφράζουν αποκλειστικά τον εκάστοτε σχολιαστή. Η Δημοκρατική δεν υιοθετεί αυτές τις απόψεις. Διατηρούμε το δικαίωμα να διαγράψουμε όποια σχόλια θεωρούμε προσβλητικά ή περιέχουν ύβρεις, χωρίς καμμία προειδοποίηση. Χρήστες που δεν τηρούν τους όρους χρήσης αποκλείονται.

Σχολιασμός άρθρου