Η εκπαίδευση δεν μπορεί να λειτουργεί με ασάφεια
Η Τεχνητή Νοημοσύνη δεν είναι πια ένα περιφερειακό εργαλείο που χρησιμοποιείται μόνο από λίγους ειδικούς. Έχει ήδη εισέλθει στην καθημερινότητα της εκπαίδευσης, της έρευνας και της διοίκησης. Χρησιμοποιείται για τη σύνταξη σημειώσεων, την παραγωγή ασκήσεων, τη δημιουργία παρουσιάσεων, τη μετάφραση εκπαιδευτικού υλικού, την παραγωγή εικόνων και βίντεο, ακόμη και για την ανάπτυξη λογισμικού. Παρ’ όλα αυτά, στις περισσότερες περιπτώσεις ο μαθητής, ο φοιτητής, ο εκπαιδευτικός, ο ερευνητής και ο πολίτης δεν γνωρίζουν αν αυτό που διαβάζουν γράφτηκε από άνθρωπο, αν παρήχθη από μηχανή ή αν αποτελεί αποτέλεσμα συνδυασμού ανθρώπινης εργασίας και αλγοριθμικής υποστήριξης.
Αυτή η ασάφεια δεν είναι μια δευτερεύουσα τεχνική λεπτομέρεια. Είναι πρόβλημα ακαδημαϊκής ακεραιότητας, θεσμικής αξιοπιστίας και δημοκρατικής λογοδοσίας. Όταν δεν είναι σαφές πώς έχει παραχθεί ένα κείμενο, μια εικόνα, ένα βίντεο ή ένα κομμάτι λογισμικού, θολώνει η ευθύνη, αποδυναμώνεται η αξιολόγηση και ανοίγει ο δρόμος για παραπλάνηση, κακή χρήση και άκριτη αναπαραγωγή σφαλμάτων. Στην εκπαίδευση αυτό έχει ακόμη μεγαλύτερη βαρύτητα, γιατί εδώ δεν κρίνεται μόνο η ποιότητα ενός αποτελέσματος αλλά και η ίδια η διαδικασία μάθησης.
Το πραγματικό ερώτημα δεν είναι αν θα χρησιμοποιείται η Τεχνητή Νοημοσύνη, αλλά αν θα δηλώνεται
Η δημόσια συζήτηση συχνά εγκλωβίζεται σε ένα ψευδές δίλημμα. Σαν να πρέπει να επιλέξουμε ανάμεσα στην πλήρη απόρριψη της παραγωγικής Τεχνητής Νοημοσύνης και στην άκριτη αποδοχή της. Το κρίσιμο ζήτημα όμως είναι άλλο. Το ερώτημα δεν είναι αν θα χρησιμοποιηθούν τέτοια συστήματα. Το ερώτημα είναι αν επιτρέπεται να χρησιμοποιούνται χωρίς αυτό να δηλώνεται ρητά. Η απάντηση πρέπει να είναι κατηγορηματικά αρνητική.
Αν ένας φοιτητής καταθέτει εργασία που έχει διαμορφωθεί με τη βοήθεια μεγάλου γλωσσικού μοντέλου, αυτό πρέπει να δηλώνεται. Αν ένας διδάσκων ετοιμάζει σημειώσεις, διαφάνειες ή φύλλα εργασίας με τη βοήθεια παραγωγικής Τεχνητής Νοημοσύνης, αυτό επίσης πρέπει να δηλώνεται. Αν ένας δημόσιος φορέας δημοσιεύει εκπαιδευτικό, ενημερωτικό ή διοικητικό υλικό που έχει παραχθεί ή τροποποιηθεί με τέτοια εργαλεία, το κοινό έχει δικαίωμα να το γνωρίζει. Η σήμανση δεν είναι εχθρική προς την τεχνολογία. Είναι η ελάχιστη προϋπόθεση για τη νόμιμη, θεμιτή και παιδαγωγικά υπεύθυνη χρήση της.
Υπάρχει ήδη εφαρμόσιμο παράδειγμα
Η συζήτηση αυτή δεν χρειάζεται να μένει σε επίπεδο γενικών αρχών. Υπάρχουν ήδη ιδρύματα που δείχνουν τον δρόμο. Το ETH Ζυρίχης έχει υιοθετήσει κατευθυντήριες οδηγίες για την παραγωγική Τεχνητή Νοημοσύνη στη διδασκαλία και τη μάθηση, στηρίζοντας μια προσέγγιση που δίνει έμφαση στην ευθύνη, τη διαφάνεια και τη δικαιοσύνη. Η αξία αυτού του παραδείγματος δεν βρίσκεται μόνο στο περιεχόμενό του, αλλά στο γεγονός ότι μετατρέπει μια γενική συζήτηση σε λειτουργική πολιτική. Δείχνει ότι η υπεύθυνη χρήση δεν διασφαλίζεται με ευχές ή αόριστες συστάσεις. Χρειάζονται γραπτοί κανόνες, σαφείς ρόλοι και ξεκάθαρες υποχρεώσεις για όλους.
Αυτή ακριβώς τη μετάβαση οφείλουν να κάνουν τώρα και τα σχολεία, τα πανεπιστήμια και οι δημόσιοι οργανισμοί στην Ελλάδα. Να φύγουν από τη γκρίζα ζώνη της σιωπηρής χρήσης και να περάσουν στη θεσμική καθαρότητα της ρητής δήλωσης.
Τι πρέπει να περιλαμβάνει μια άμεση πολιτική σήμανσης
Κάθε σχολείο, κάθε ΑΕΙ και κάθε δημόσιος φορέας που παράγει εκπαιδευτικό, ερευνητικό, διοικητικό ή δημόσιου ενδιαφέροντος περιεχόμενο οφείλει να υιοθετήσει τώρα υποχρεωτική πολιτική σήμανσης. Στον πυρήνα της, αυτή η πολιτική πρέπει να είναι απλή και σαφής. Κάθε κείμενο να χαρακτηρίζεται ως «συντάχθηκε από άνθρωπο», «παρήχθη από Τεχνητή Νοημοσύνη» ή «παρήχθη με υποστήριξη Τεχνητής Νοημοσύνης και ανθρώπινη επιμέλεια». Κάθε εικόνα, ήχος ή βίντεο που έχει παραχθεί ή μεταβληθεί με τέτοια εργαλεία να επισημαίνεται ευκρινώς. Κάθε αρχείο πηγαίου κώδικα να περιλαμβάνει τεκμηρίωση για τη χρήση εργαλείων Τεχνητής Νοημοσύνης κατά την ανάπτυξή του.
Η πολιτική αυτή πρέπει επίσης να καλύπτει με σαφήνεια τις εργασίες μαθητών και φοιτητών, τις εξετάσεις, το διδακτικό υλικό, την ανατροφοδότηση, τη διοικητική επικοινωνία και τη δημόσια ενημέρωση. Και πρέπει να ξεκαθαρίζει κάτι κρίσιμο: η δήλωση χρήσης δεν καταργεί την ευθύνη. Ο μαθητής εξακολουθεί να ευθύνεται για την εργασία που καταθέτει. Ο εκπαιδευτικός εξακολουθεί να ευθύνεται για την ακρίβεια και την ποιότητα του υλικού που διανέμει. Ο δημόσιος φορέας εξακολουθεί να ευθύνεται για την αξιοπιστία όσων δημοσιεύει.
Σήμανση και παιδεία για την Τεχνητή Νοημοσύνη πρέπει να προχωρήσουν μαζί
Καμία πολιτική σήμανσης δεν θα λειτουργήσει ουσιαστικά αν δεν συνοδευτεί από συστηματική παιδεία γύρω από την Τεχνητή Νοημοσύνη. Η απλή πρόσβαση σε εργαλεία χωρίς επιμόρφωση δεν είναι καινοτομία με ευθύνη. Είναι διοικητική και παιδαγωγική επιπολαιότητα. Οι κίνδυνοι είναι ήδη γνωστοί: επινοημένες βιβλιογραφικές αναφορές, μεροληπτικές απαντήσεις, πραγματολογικά σφάλματα, κακή διαχείριση προσωπικών δεδομένων, παραβιάσεις πνευματικών δικαιωμάτων και μια ψευδής εικόνα επάρκειας εκεί όπου δεν υπάρχει πραγματική γνώση.
Γι’ αυτό τα ιδρύματα δεν χρειάζονται απλώς ανεκτικές οδηγίες. Χρειάζονται σαφείς κανόνες επιτρεπτής χρήσης, στοχευμένη επιμόρφωση για εκπαιδευτικούς, ερευνητές, διοικητικά στελέχη και φοιτητές, καθώς και διαδικασίες που να ξεχωρίζουν τη μαθησιακή υποστήριξη από την υποκατάσταση της ανθρώπινης προσπάθειας. Η Ευρώπη έχει ήδη δείξει αυτή την κατεύθυνση. Η υποχρέωση για επαρκές επίπεδο παιδείας γύρω από την Τεχνητή Νοημοσύνη είναι πλέον ρητό μέρος του ευρωπαϊκού πλαισίου.
Ώρα για άμεση θεσμική απόφαση
Σχολεία, πανεπιστήμια και δημόσιοι φορείς δεν έχουν λόγο να περιμένουν άλλο. Δεν χρειάζεται να προηγηθούν σκάνδαλα, παραπλανητικό περιεχόμενο, αμφισβητούμενες αξιολογήσεις ή πίεση συμμόρφωσης για να κινηθούν. Η σωστή κατεύθυνση είναι ήδη καθαρή. Κάθε χρήση Τεχνητής Νοημοσύνης σε εκπαιδευτικό και δημόσιου ενδιαφέροντος περιεχόμενο πρέπει να δηλώνεται ρητά. Κάθε οργανισμός πρέπει να υιοθετήσει γραπτή πολιτική σήμανσης, κανόνες επιτρεπτής χρήσης, διαδικασίες προστασίας προσωπικών δεδομένων και πνευματικών δικαιωμάτων, καθώς και πρακτική επιμόρφωση για όλους τους εμπλεκόμενους.
Αν θέλουμε μια εκπαίδευση που να παραμένει αξιόπιστη, δημοκρατική και παιδαγωγικά ουσιαστική στην εποχή της Τεχνητής Νοημοσύνης, η σήμανση πρέπει να γίνει κανόνας τώρα. Όχι αργότερα, όχι αποσπασματικά και όχι μόνο όταν θα έχει ήδη προκληθεί βλάβη. Ο πρώτος κανόνας της υπεύθυνης χρήσης είναι απλός: όταν έχει χρησιμοποιηθεί Τεχνητή Νοημοσύνη, αυτό πρέπει να δηλώνεται καθαρά.
Πηγές άρθρου:
- ETH Zurich, Generative AI in Teaching and Learning Guidelines: Ένα από τα πιο ώριμα θεσμικά παραδείγματα για την ανώτατη εκπαίδευση, με έμφαση στην ευθύνη, τη διαφάνεια και τη δικαιοσύνη, και με σαφείς προσδοκίες τόσο για διδάσκοντες όσο και για φοιτητές ως προς τη δήλωση χρήσης και τον ποιοτικό έλεγχο:
https://ethz.ch, - European Commission, AI Literacy Questions and Answers: Η Ευρωπαϊκή Επιτροπή διευκρινίζει ότι το άρθρο 4 της Πράξης για την Τεχνητή Νοημοσύνη απαιτεί από παρόχους και φορείς χρήσης να διασφαλίζουν επαρκές επίπεδο παιδείας γύρω από την Τεχνητή Νοημοσύνη για το προσωπικό και όσους ενεργούν για λογαριασμό τους:
https://digital-strategy.ec.europa.eu, - European Commission, AI Act transparency framework and Article 50 guidance: Η επίσημη ευρωπαϊκή τεκμηρίωση συνοψίζει τις υποχρεώσεις διαφάνειας για περιεχόμενο που παράγεται ή χειραγωγείται με Τεχνητή Νοημοσύνη και αναδεικνύει τη λογική της αναγνωρισιμότητας και της σήμανσης για την προστασία της ακεραιότητας της ενημέρωσης και του δημόσιου συμφέροντος:
https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.

