Προκλήσεις και ευκαιρίες από τη χρήση τεχνολογιών Τεχνητής Νοημοσύνης για παιδιά και εφήβους
Με αφορμή την Ημέρα Ασφαλούς Διαδικτύου 2024, εξετάζουμε τους κινδύνους που απορρέουν από την χρήση των αναδυόμενων τεχνολογιών
Με αφορμή την Ημέρα Ασφαλούς Διαδικτύου 2024, το Ελληνικό Κέντρο Ασφαλούς Διαδικτύου του Ιδρύματος Τεχνολογίας και Έρευνας εφιστά την προσοχή στους κινδύνους που απορρέουν από την χρήση των αναδυόμενων τεχνολογιών, όπως αυτή της τεχνητής νοημοσύνης (ΑΙ) κυρίως από ανήλικους χρήστες. Ήδη έχουν δει το φως της δημοσιότητας περιπτώσεις όπου ανήλικοι, χρησιμοποιώντας εφαρμογές τεχνητής νοημοσύνης, παραποίησαν φωτογραφίες ανήλικων κοριτσιών και άρχισαν να τις διακινούν «για πλάκα» όπως χαρακτηριστικά δήλωσαν εκ των υστέρων. Σήμερα, η πλειοψηφία του «deepfake» υλικού που κυκλοφορεί στο διαδίκτυο αφορά τη μη συναινετική πορνογραφία. Δηλαδή εμφανίζονται βίντεο πορνογραφικού υλικού όπου έχει αντικατασταθεί το πρόσωπο της γυναίκας ή των γυναικών που πρωταγωνιστούν με το πρόσωπο κάποιας άλλης ή άλλων. Συνήθως τα θύματα είναι διάσημα πρόσωπα όμως δεν αποκλείεται να πέσει θύμα ο οποιοσδήποτε. Το όλο ζήτημα γεννά μεγάλο προβληματισμό όσον αφορά στην προστασία της ιδιωτικότητας στο διαδίκτυο και δυστυχώς μπορεί να καταστήσει κάθε φυσικό πρόσωπο ανεξαρτήτου φύλου, δυνητικό θύμα. Είναι σημαντικό να μιλήσουν γονείς και εκπαιδευτικοί στα παιδιά και τους εφήβους για τις επιπτώσεις που μπορεί να έχει αυτή η πρακτική, οι οποίες είναι σοβαρές και πολυδιάστατες.
Επίσης είναι σημαντικό να γνωρίζουν που μπορούν να απευθυνθούν αν πέσουν θύμα μη συναινετικού διαμοιρασμού προσωπικού περιεχομένου στο διαδίκτυο, είτε πρόκειται για πραγματικές φωτογραφίες είτε πρόκειται για υλικό deepfake από κάποιο εργαλείο ΑΙ:
- Δ/νση Δίωξης Ηλεκτρονικού Εγκλήματος στο 11188
- Ανοιχτή Γραμμή καταγγελιών για τα παράνομο περιεχόμενο στο διαδίκτυο SafeLine.gr : Βασική μέριμνα της SafeLine είναι η εξάλειψη φωτογραφιών και βίντεο που απεικονίζουν κακοποίηση ανηλίκων, καθώς και η προάσπιση του δικαιώματος της ασφαλούς πλοήγησης του παιδιού στο Διαδίκτυο. Στα παραπάνω προστίθεται και η αντιμετώπιση της παρενόχλησής του μέσω του κυβερνοχώρου ή του κινητού τηλεφώνου αλλά και η αντιμετώπιση περιεχομένου που αφορά τη βία, το ρατσισμό, την ξενοφοβία και γενικά καθετί το οποίο αντιβαίνει στην Ελληνική Νομοθεσία.
- StopΝCII.org: Η καινοτομία του StopNCII.org έγκειται στο γεγονός ότι ο χρήστης δε χρειάζεται να στείλει τις φωτογραφίες ή link από τις φωτογραφίες στον οποιονδήποτε προκειμένου να αφαιρεθούν από τον κυβερνοχώρο. Μπορεί να δημιουργήσει τη δική του «υπόθεση» (Case) και μέσω της τεχνολογίας hashing που χρησιμοποιεί το συγκεκριμένο εργαλείο να αποτρέψει την ανάρτηση συγκεκριμένων προσωπικών εικόνων/βίντεο.
- Take it down: Με αφετηρία την αξία ότι κάθε παιδί έχει δικαίωμα να είναι ασφαλές στο διαδίκτυο, πρόκειται για ένα ψηφιακό σύστημα αναφορών για παιδιά κάτω των 18 ετών όταν διαρρέει μια προσωπική τους φωτογραφία. Η φωτογραφία αυτή, αν σταλεί από το δημιουργό της στον οργανισμό NCMEC, δεν μπορεί ουσιαστικά να δημοσιευθεί σε παγκόσμιες πλατφόρμες όπως το Instagram, TikTok, Facebook, OnlyFans.
ΒΟΗΘΩΝΤΑΣ ΤΑ ΠΑΙΔΙΑ ΝΑ ΧΡΗΣΙΜΟΠΟΙΟΥΝ ΥΠΕΥΘΥΝΑ ΕΡΓΑΛΕΙΑ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗΣ (ΑΙ)
Μιλήστε για τα οφέλη και τους κινδύνους από τη χρήση της τεχνητής νοημοσύνης:
Πολλά εργαλεία τεχνητής νοημοσύνης μπορούν να βοηθήσουν τα παιδιά να είναι δημιουργικά και να μάθουν νέες δεξιότητες. Επίσης δημιουργούνται διαρκώς νέα προγράμματα που μπορούν να υποστηρίξουν τις ατομικές μαθησιακές ανάγκες των παιδιών. Συζητήστε με τα παιδιά σχετικά με την τεχνολογία AI. Βάλτε τους να σκεφτούν πώς τα προγράμματα θα μπορούσαν να τους βοηθήσουν να μάθουν και να αναπτυχθούν. Επισημάνετε στα παιδιά κινδύνους που μπορεί να υπάρχουν. Για παράδειγμα, πολλά chatbots έχουν σχεδιαστεί για να ανταποκρίνονται σαν άνθρωποι, κάτι που μπορεί να κάνει τα παιδιά να αισθάνονται ότι έχουν μια κοινωνική αλληλεπίδραση. Βοηθήστε τα παιδιά να έχουν επίγνωση ότι αλληλεπιδρούν με προγράμματα, όχι με ανθρώπους με συναισθήματα και ενσυναίσθηση. Επιπλέον, τα συστήματα τεχνητής νοημοσύνης λειτουργούν χρησιμοποιώντας μεγάλες ποσότητες δεδομένων, επομένως τείνουν να συλλέγουν πολλές πληροφορίες χρηστών. Αυτό μπορεί να θέσει σε κίνδυνο το απόρρητο ενός παιδιού. Βεβαιωθείτε ότι τα παιδιά γνωρίζουν τους κανόνες ασφαλούς συμπεριφοράς στο διαδίκτυο. Αυτό περιλαμβάνει τη μη κοινοποίηση προσωπικών πληροφοριών και τη λήψη άδειας πριν από τη δημοσίευση οτιδήποτε σχετικό με άλλους.
Δοκιμάστε μαζί εργαλεία AI
Είναι καλή ιδέα τα παιδιά να δοκιμάσουν και να χρησιμοποιήσουν προγράμματα τεχνητής νοημοσύνης με υποστήριξη ενηλίκων. Με αυτόν τον τρόπο, μπορείτε να βεβαιωθείτε ότι χρησιμοποιούν εργαλεία που δε θα τους εκθέσουν σε κάτι ακατάλληλο. Η δοκιμή τους μαζί, μπορεί επίσης να βοηθήσει τα παιδιά να σκεφτούν πως τα συγκεκριμένα εργαλεία θα μπορούσαν να είναι χρήσιμα ή επιβλαβή.
Μιλήστε για παραπλανητικό ή μεροληπτικό περιεχόμενο
Τα εργαλεία τεχνητής νοημοσύνης σχεδιάζονται από ανθρώπους. Χρησιμοποιούν επίσης δεδομένα που δημιουργήθηκαν αρχικά από ανθρώπους και δεδομένα που αντικατοπτρίζουν τις υπάρχουσες προκαταλήψεις στην κοινωνία. Πολλά προγράμματα τεχνητής νοημοσύνης μπορεί να παρέχουν μεροληπτικές ή εσφαλμένες πληροφορίες. Η τεχνολογία δεν είναι τέλεια και μπορεί να κάνει πολλά λάθη. Εξηγήστε το αυτά στα παιδιά και βοηθήστε τα να μάθουν να χρησιμοποιούν την κριτική τους σκέψη.
Κάντε συζητήσεις για λογοκλοπή και εξαπάτηση
Οι εφαρμογές που μπορούν να χρησιμοποιήσουν τα παιδιά για να εξαπατήσουν υπάρχουν εδώ και καιρό. Πολλά δημοφιλή εργαλεία τεχνητής νοημοσύνης δημιουργούν κείμενο και εικόνες, τα οποία τα παιδιά μπορεί να χρησιμοποιήσουν για σχολικές εργασίες. Αυτά τα προγράμματα δεν παρέχουν πάντα πηγές για τις πληροφορίες τους, επομένως ενδέχεται να περιέχουν ανακρίβειες και λάθη. Εξηγήστε στα παιδιά ότι η αντιγραφή ενός προϊόντος τεχνητής νοημοσύνης είναι λογοκλοπή δηλαδή απάτη. Αντίθετα, κατευθύνετε τα προς εκπαιδευτικά εργαλεία που τους βοηθούν να χτίσουν πάνω σε αυτά που μαθαίνουν στο σχολείο. Τα κατάλληλα για την ηλικία εργαλεία AI μπορούν να συμπληρώσουν τη μάθησή τους, αλλά όχι να την αντικαταστήσουν.
Δείτε εδώ το νέο Εκπαιδευτικό Υλικό για SID 2024