Ηθική & τεχνητή νοημοσύνη στις σύγχρονες ευρωπαϊκές κοινωνίες

Μιλτιάδης Λαπατσάνης, Υπ. Δρ. Digital International Relations, Τμήμα Διεθνών & Ευρωπαϊκών Σπουδών, Πανεπιστήμιο Μακεδονίας

Οι τεχνολογίες μηχανικής μάθησης και τεχνητής νοημοσύνης (ΤΝ) κερδίζουν ταχύτατα έδαφος σε διάφορους τομείς της οικονομίας και της κοινωνίας. Αυτοί οι προηγμένοι αλγόριθμοι ΤΝ, πολλοί από τους οποίους επεξεργάζονται ταχέως διευρυνόμενα σύνολα δεδομένων, χρησιμοποιούνται όλο και περισσότερο για την παροχή εξατομικευμένων, διαδραστικών και καινοτόμων αγαθών και υπηρεσιών.

Αναμφίβολα, η ΤΝ έχει τεράστιες δυνατότητες να βελτιώσει ένα ευρύ φάσμα ανθρώπινων δραστηριοτήτων, προσφέροντας νέες γνώσεις για την ανθρώπινη συμπεριφορά και νόηση. Καθώς η ΤΝ συνεχίζει να εξελίσσεται, είναι έτοιμη να τροφοδοτήσει την εμφάνιση καινοτόμων επιχειρήσεων και να οδηγήσει στη δημιουργία υποσχόμενων προϊόντων και υπηρεσιών, αγγίζοντας τομείς όπως οι μεταφορές, η υγειονομική περίθαλψη, η εκπαίδευση και το οικιακό περιβάλλον. Οι προκύπτοντες μετασχηματισμοί θα μπορούσαν να διαταράξουν τις καθιερωμένες ροές εργασίας τόσο των δημόσιων όσο και των ιδιωτικών φορέων και να αναδιαμορφώσουν τη δυναμική των καθημερινών κοινωνικών αλληλεπιδράσεων.

Ενώ ο αρχικός ενθουσιασμός για τα οφέλη των συστημάτων που λειτουργούν με ΤΝ ήταν αισθητός, σταδιακά εμφανίζονται ανησυχίες σχετικά με τους συναφείς κινδύνους. Οι ανησυχίες αυτές περιλαμβάνουν πιθανά ζητήματα αλγοριθμικής δικαιοσύνης που οδηγούν σε προκατειλημμένες αποφάσεις, χειραγώγηση των χρηστών, δημιουργία φυσαλίδων φίλτρων, προκλήσεις συμμετοχικότητας, παραβιάσεις της ιδιωτικής ζωής των καταναλωτών, καθώς και τρωτά σημεία ασφάλειας, κυβερνοασφάλειας και μονοπωλιακών πρακτικών.

Ένα αξιοσημείωτο ζήτημα είναι η έλλειψη κατανόησης από το κοινό του τρόπου λειτουργίας αυτών των αλγορίθμων. Αυτό το κενό γνώσεων επεκτείνεται και στους εμπειρογνώμονες ΤΝ, οι οποίοι οι ίδιοι παλεύουν με την αδιαφάνεια των διαδικασιών λήψης αποφάσεων. Κατά συνέπεια, υπάρχει μια αυξανόμενη ανησυχία μεταξύ των επαγγελματιών της ΤΝ όσον αφορά τις αχαρτογράφητες συνέπειες αυτών των τεχνολογιών. Η αντιμετώπιση αυτών των ανησυχιών απαιτεί να δοθεί προτεραιότητα στην επεξήγηση των αλγορίθμων, καθώς αυτή αποτελεί το κλειδί για την ενίσχυση της εμπιστοσύνης και της διαφάνειας στα συστήματα ΤΝ.

Ο καθορισμός του ποιος φέρει την ευθύνη για τη συμπεριφορά της ΤΝ γίνεται ένα σύνθετο ηθικό δίλημμα, που απαιτεί κοινή λογοδοσία μεταξύ των προγραμματιστών, των μηχανικών, των ενδιαφερομένων της βιομηχανίας, των φορέων χάραξης πολιτικής και των χρηστών. Επιπλέον, η αναγνώριση της εξελισσόμενης ηθικής ευθύνης της ίδιας της τεχνολογίας, καθώς προχωρά προς μεγαλύτερη αυτονομία, καθίσταται υψίστης σημασίας. Διαμόρφωση πιθανών πολιτικών απαντήσεων: Η επίτευξη μιας ισορροπημένης προσέγγισης του ρόλου της τεχνητής νοημοσύνης στην Ευρώπη απαιτεί τη συλλογική προσπάθεια των ερευνητών, των φορέων χάραξης πολιτικής, των παραγόντων του κλάδου και της ευρύτερης κοινότητας. Για την καθοδήγηση της υπεύθυνης ανάπτυξης της ΤΝ, πρέπει να καταρτιστεί ένα διεπιστημονικό ερευνητικό πρόγραμμα, που θα προάγει τη βαθύτερη κατανόηση των επιπτώσεών της.

Ωστόσο, η μελέτη των αλγορίθμων είναι πολύπλευρη και περιλαμβάνει διάφορους ακαδημαϊκούς κλάδους, συμπεριλαμβανομένων τεχνικών, κοινωνικών, ηθικών, νομικών, οικονομικών και φιλοσοφικών πτυχών. Ενώ αυτή η ποικιλόμορφη έρευνα είναι ανεκτίμητη, η έλλειψη κοινής γλώσσας και κοινών μεθοδολογιών σε παγκόσμιο επίπεδο εμποδίζει τον αποτελεσματικό διάλογο και συντονισμό. Κατά συνέπεια, οι υπεύθυνοι χάραξης πολιτικής αντιμετωπίζουν προκλήσεις στην κατανόηση και την πλοήγηση στο εκτεταμένο σώμα της έρευνας, το οποίο εκτείνεται από τεχνικά μέτρα έως ηθικές εκτιμήσεις, συμβάλλοντας τελικά σε τεκμηριωμένες αποφάσεις πολιτικής. Η Ευρώπη, ειδικότερα, θα πρέπει να αναλάβει ηγετικό ρόλο στη θέσπιση κωδίκων δεοντολογίας, κανονιστικών πλαισίων και ηθικών κατευθυντήριων γραμμών που προωθούν την υπεύθυνη ανάπτυξη και χρήση της ΤΝ.”

Βιβλιογραφία

Ariel Ezrachi and Maurice E. Stucke (2016), Virtual Competition: The Promise and Perils of the Algorithm-Driven Economy, Harvard University Press.

Eslami, M., Karahalios, K., Sandvig, C., Vaccaro, K., Rickman, A., Hamilton, K. & Kirlik. A. (2016), First I “like” it, then I hide it: Folk Theories of Social Feeds . Human Factors in Computing Systems

K., Hamilton, K., and Sandvig, C. (2015), “I always assumed that I wasn’t really that close to [her]:”

V. Dignum (2017), Responsible Artificial Intelligence: Designing AI for Human Values. In: ITU Journal: ICT Discoveries, Special Issue, No 1. Sept 2017.