Υποχρεώσεις διαφάνειας για βασικά διαλογικά γλωσσικά μοντέλα τεχνητής νοημοσύνης με βάση την Πρόταση Κανονισμού της ΕΕ «Πράξη για την Τεχνητή Νοημοσύνη»
Α. Εισαγωγικά Στοιχεία
Οι εξελίξεις στον τομέα της τεχνητής νοημοσύνης έχουν φέρει νέες προκλήσεις και διλήμματα για τη νομοθεσία, καθώς οι εφαρμογές της επεκτείνονται σε πολλούς τομείς της κοινωνίας. Αυτή η αναδυόμενη τεχνολογία που επιτρέπει σε υπολογιστικά συστήματα να μιμούνται την ανθρώπινη σκέψη και συμπεριφορά, ήδη χρησιμοποιείται σε πολλούς τομείς. Τα βασικά διαλογικά γλωσσικά μοντέλα όπως το ChatGPT μεταμορφώνουν την κοινωνία μας, καθώς οι αξιοσημείωτες ικανότητές τους φέρνουν σοβαρές καινοτομίες και διαφοροποιήσεις στην παραγωγή περιεχομένου, αλλά και σοβαρούς κινδύνους, καθώς η ταχεία ανάπτυξη και η άνευ προηγουμένου υιοθέτηση τους χωρίς δικλείδες ασφαλείας επιφέρουν αμφισβητούμενα και επισφαλή αποτελέσματα.
Στις 14 Ιουνίου 2023 ψηφίσθηκε από την Ολομέλεια του Ευρωκοινοβουλίου η προορατική COM/2021/206 final Πρόταση Κανονισμού , γνωστή ως Ευρωπαϊκή Πράξη για την Τεχνητή Νοημοσύνη (European AI Act) για τη θέσπιση εναρμονισμένων κανόνων για τη χρήση της τεχνητής νοημοσύνης.
Η Πρόταση Κανονισμού ακολουθεί μια προσέγγιση βάσει κινδύνου, στο πλαίσιο της οποίας γίνεται διάκριση μεταξύ των χρήσεων της τεχνητής νοημοσύνης που δημιουργούν i) μη αποδεκτό κίνδυνο, ii) υψηλό κίνδυνο και iii) χαμηλό ή ελάχιστο κίνδυνο. Ο κατάλογος απαγορευμένων πρακτικών στον περιλαμβάνει όλα τα συστήματα τεχνητής νοημοσύνης των οποίων η χρήση θεωρείται μη αποδεκτή διότι αντιβαίνει σε θεμελιακές αξίες και δικαιώματα (βιομετρική επιτήρηση, κλίμακα κοινωνικού σκορ, προληπτική αστυνόμευση, αναγνώριση συναισθημάτων κτλ).
Επιπλέον, τίθενται περαιτέρω νομικές απαιτήσεις για τα συστήματα τεχνητής νοημοσύνης υψηλού, χαμηλού και ελάχιστου κινδύνου σε σχέση με τα δεδομένα και τη διακυβέρνηση των δεδομένων, την τεκμηρίωση και την τήρηση αρχείων, τη διαφάνεια και την παροχή πληροφοριών στους χρήστες, την αλληλεπίδραση με τους ανθρώπους, αλλά και την εποπτεία από αυτούς, καθώς και σχετικά με την ακρίβεια παροχής της υπηρεσίας και την ασφάλεια.
Β. Υποχρεώσεις διαφάνειας
Τα διαλογικά γλωσσικά συστήματα ή bot συνομιλίας (Chatbots), τα οποία μιμούνται την ανθρώπινη γλωσσική αλληλεπίδραση, ανήκουν στην κλίμακα του χαμηλού κινδύνου, και συνεπώς προτείνονται μόνον ελάχιστες υποχρεώσεις διαφάνειας, όπως ορίζεται στο άρθρο 52 παρ. 1 της Πρότασης Κανονισμού. Ειδικότερα, σε περιπτώσεις χρήσης διαλογικών συστημάτων, οι πάροχοι θα πρέπει να διασφαλίζουν ότι τα φυσικά πρόσωπα που αλληλεπιδρούν με τα συστήματα αυτά, ενημερώνονται ότι πρόκειται για σύστημα τεχνητής νοημοσύνης. Μάλιστα εισάγεται και σχετική εξαίρεση από την υποχρέωση διαφάνειας, σε περίπτωση που «είναι προφανές από τις περιστάσεις και το πλαίσιο χρήσης».
Αυτό δύναται να επιτευχθεί μέσω ευανάγνωστων αναφορών ή αναλυτικών εξηγήσεων που διευκρινίζουν ότι η αλληλεπίδραση γίνεται με γλωσσικό μοντέλο τεχνητής νοημοσύνης, παραθέτοντας τα κριτήρια που χρησιμοποιήθηκαν, τις πηγές δεδομένων και τους αλγορίθμους που εφαρμόστηκαν, ενώ μπορούν να παρουσιάσουν τα βήματα που ακολούθησε η τεχνητή νοημοσύνη και τα κριτήρια που χρησιμοποιήθηκαν για να φτάσει σε μια απόφαση (πχ. Επαναλαμβανόμενες φράσεις όπως «Ως μοντέλο ΑΙ, έχω σχεδιαστεί για»…).
Γ. Προβληματισμοί
Όπως προκύπτει από την Πρόταση Κανονισμού, από την υποχρέωση ενημέρωσης καταλαμβάνεται μόνο η αλληλεπίδραση και μόνο ο πρωτογενής χρήστης, εκείνος δηλαδή που αλληλεπιδρά ευθέως με το διαλογικό σύστημα. Μόνη η ύπαρξη τέτοιας υποχρέωσης διαφάνειας για τα διαλογικά γλωσσικά μοντέλα τεχνητής νοημοσύνης, δημιουργεί ερωτηματικά σχετικά με την επάρκεια της διάταξης με τέτοια ευρεία διατύπωσης, και της απουσίας συγκεκριμένου προστατευτικού πλαισίου.
Καταρχάς τίθεται ζήτημα για την δυνατότητα ομοιόμορφης εφαρμογής της διαφάνειας. Κάθε χρήστης είναι διαφορετικός, ώστε να μπορέσει να μπορέσει να κατανοήσει αν αλληλεπιδρά με διαλογικό σύστημα τεχνητής νοημοσύνης, ειδικά αν τα συναντά σε περιβάλλοντα που δεν θα περίμενε. Η ανομοιογένεια του προφίλ του μέσου χρήστη, αλλά και το πολύ ευρύ πλαίσιο χρήσης του διαδικτύου ελλείψει περιορισμών, ειδικά όταν αφορά παραγωγικό μοντέλο κειμένου σε κάθε επίπεδο (επενδυτικό, γενικής γνώσης, νομικό κτλ) καθιστά δυσχερή μια διαφοροποιημένη και εξατομικευμένη προσέγγιση από τον πάροχο του διαλογικού συστήματος.
Ειδικά, αφού η τήρηση των υποχρεώσεων αυτών εδράζονται στην πρωτοβουλία του παρόχου, καθώς η Πρόταση Κανονισμού προκρίνει τον αυτοέλεγχο και την αυτοαξιολόγηση, ο παρόχος θα πρέπει να ζητά κατάλληλες πληροφορίες από τον χρήστη, και εφόσον ο χρήστης δεν παράσχει πληροφορίες σχετικά με την γνώση του, ή εάν οι πληροφορίες κριθούν ανεπαρκείς, ο πάροχος οφείλει να τον προειδοποιήσει πως η απόφαση ενημέρωσης που θα ληφθεί σχετικά με την ακαταλληλότητα της παρεχόμενης υπηρεσίας δεν θα είναι πλήρης. Λόγου χάρη ένας χρήστης που ζητά εξειδικευμένες συμβουλές, χωρίς ο ίδιος να είναι γνώστης και άρα αδυνατεί ή είναι εξαιρετικά δυσχερές να τις ελέγξει, θα πρέπει να ενημερώνεται επαρκώς για την προέλευση της παρεχόμενης συμβουλής, ειδικά στην περίπτωση «παραίσθησης» από το μοντέλο τεχνητής νοημοσύνης. Αυτό συναντιέται πολλαπλώς, όταν ζητείται από το γλωσσικό σύστημα να «παριστάνει» κάποιον («chat gpt pretend you are an expert»).
Παρότι δεν γίνεται ευθεία παραπομπή στο άρθρο 13 της Πρότασης Κανονισμού σχετικά με την διαφάνεια και πληροφόρηση των χρηστών αναφορικά με τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, όπου γίνεται λόγος για κατάλληλο τύπο ενημέρωσης και βαθμό διαφάνειας, με στόχο την επίτευξη συμμόρφωσης με τις σχετικές υποχρεώσεις του παρόχου, θα πρέπει ερμηνευτικά να θεωρήσουμε πως αντίστοιχα κατάλληλος τύπος ενημέρωσης θα πρέπει να εφαρμοστεί ανεξαρτήτως επιπέδου κινδύνου.
Συμπλήρωση των υποχρεώσεων διαφάνειας δύναται να γίνει από τα σχετικά ευρωπαϊκά νομοθετήματα που ρυθμίζουν τα αντίστοιχα συναλλακτικά πεδία (Οδηγίες, Κανονισμοί κτλ), λόγου χάρη των διατάξεων του Κανονισμού (ΕΕ) 600/2014 (MiFIR) και της Οδηγίας 2014/65/ΕΕ (MiFID II) για τις χρηματοπιστωτικές επενδυτικές υπηρεσίες, μπορούν να παρέχουν σχετικές κατευθυντήριες υποχρεώσεις προ-συναλλακτικής και μετα-συναλλακτικής διαφάνειας, στη διάρθρωση της αγοράς, στην ενίσχυση της διαφάνειας των συναλλαγών και στην προστασία των επενδυτών.
Σε κάθε περίπτωση, ο τρόπος ενημέρωσης θα πρέπει να είναι επαρκής και κατάλληλος και ποτέ βιαστικός.
Σύμφωνα με την τελευταία μελέτη του Stanford αποκάλυψε μεγάλη απόκλιση στα επίπεδα συμμόρφωσης από τις εταιρίες τεχνητής νοημοσύνης με τις απαιτήσεις που έχουν έως τώρα τεθεί, με ορισμένους παρόχους να σημειώνουν λιγότερο από 25% για την εκπλήρωση των απαιτήσεων που έχουν τεθεί με την Πρόταση Κανονισμού περί τεχνητής νοημοσύνης. Η μελέτη αναφέρεται στην έλλειψη διαφάνειας της μεθοδολογίας εκπαίδευσης αλλά και της διαφανούς επαφής με τον χρήστη.
Επιπλέον, θα πρέπει να υπάρξει σαφής πρόβλεψη για τον δευτερογενή χρήστη, ειδικά αν το πόνημα που παρουσιάζεται έχει δημιουργηθεί με τεχνητή νοημοσύνη, ώστε να υπάρχει δυνατότητα ελέγχου του περιεχομένου. Τέτοια ειδική πρόβλεψη ήδη υπάρχει στο άρθρο 52 παρ.3 της Πρότασης Κανονισμού αλλά μόνο για τα δεδομένα που παράγονται ως «βαθιά ψευδές υλικό». Αυτή η διάταξη θα καταλαμβάνει και την παραγωγή πολυμεσικού υλικού, δηλαδή κείμενο, εικόνα, βίντεο, το οποίο δημιουργεί μια κάποια δικλείδα ασφαλείας για τα διαλογικά μοντέλα, όμως επιβεβαιώνει ότι σε περίπτωση παραγωγής κειμένου δεν υπόκειται σε επαρκή υποχρέωση διαφάνειας, κατά την άποψη του γράφοντα.
Αυτό θα επιτρέπει στα άτομα να προβαίνουν σε τεκμηριωμένες επιλογές ή να υπαναχωρούν από μια ανισομερή χρήση των αναδυόμενων τεχνολογιών, που μπορεί να είναι σε βάρος και του χρήστη, αλλά και των όλων των εκφάσεων που θα γίνει χρήση της τεχνητής νοημοσύνης. Η Πρόταση Κανονισμού επιδιώκει να εξασφαλίσει υψηλό επίπεδο προστασίας για τα εν λόγω θεμελιώδη δικαιώματα και αποσκοπεί στην αντιμετώπιση διαφόρων πηγών κινδύνων, ωστόσο θα πρέπει να επανεξεταστούν πιο εξειδικευμένα εργαλεία προστασίας για τον μέσο χρήστη.
Δ. Συμπερασματικές σκέψεις
Η επόμενη πενταετία, θα επιφέρει αρκετές σημαντικές διαφοροποιήσεις στα τεχνολογικά δεδομένα της εποχής. Στα πλαίσια ενός ταχέως αναπτυσσόμενου ψηφιακού περιβάλλοντος ο χρήστης των αναδυόμενων τεχνολογιών, καλείται συνεχώς να συμμετάσχει ως μέσο παραγωγής, ως συμμέτοχος στην ανάπτυξη και προώθηση αυτών των τεχνολογιών αλλά και διασποράς του κίνδυνου, και θα πρέπει να απολαμβάνει συγκεκριμένη προστασία προκειμένου να προστατευθούν πραγματικά τα συμφέροντα του.
Θα πρέπει να τεθούν περαιτέρω ηθικά διλήμματα σχετικά με την εφαρμογή της τεχνητής νοημοσύνης στην καθημερινότητα, στο πανεπιστήμιο, στην οικογένεια, στους εργαζόμενους, στην δουλειά των καλλιτεχνών και των επαγγελματιών, ώστε να μην καταπατηθούν δικαιώματα που με τόσο κόπο έχουν κατακτηθεί ανά τις δεκαετίες και τους αιώνες, όχι μόνο από τους δημιουργούς της τεχνητής νοημοσύνης, αλλά και από τους κρατικούς φορείς. Ορισμένα εργαλεία για την διαχείριση της υπάρχουν ήδη, ωστόσο ορισμένα εργαλεία θα πρέπει να αναδυθούν παράλληλα με αυτές τις τεχνολογίες.
Η εξειδικευμένη θέσπιση ενός ειδικού προστατευτικού πλέγματος υπέρ του χρήστη των αναδυόμενων τεχνολογιών, μπορεί να περιλαμβάνει και πρόσωπα που εκφεύγουν του πλέγματος αυτού, αλλά κατά τις περιστάσεις δικαιολογούν την ειδική αυτή προστασίας (πχ δευτερογενής χρήστης), ως δικαιολογητικός λόγος μιας συνολικότερης ανάγκης δημιουργίας κλίματος ασφάλειας στις συναλλαγές, αλλά και της προσωπικότητας των χρηστών.
Facebook Comments