Το δίκαιο ενώπιον της πρόκλησης των αλγορίθμων – Προς «ρομποτικούς» δικηγόρους και δικαστές;
I. Ενώ ο πλανήτης κινείται σε μια τροχιά θανάτου, έρμαιο τόσο εγγενών γεωφυσικών όσο και ανθρωπογενών αιτιών, οι ανθρωποθυσίες στην Ουκρανία και τη Γάζα, προϊόντα, ενός λυσσαλέου, γεωοικονομικού και γεωπολιτικού ενδοκαπιταλιστικού ανταγωνισμού, συνεχίζονται και η απειλή ενός πυρηνικού ολέθρου βρίσκεται προ των πυλών, η πρόοδος των νέων διασπαστικών τεχνολογιών (ψηφιοποίηση, ρομποτική, τεχνητή νοημοσύνη) επελαύνει, το δε διαχρονικά επίκαιρο ζήτημα της σχέσης ανθρώπου και μηχανής βρίσκεται στο επίκεντρο της επικαιρότητας. Εξάλλου, η συνδεθείσα, με καταλύτη την πανδημία, με τη «μεγάλη επανεκκίνηση» του ευρισκόμενου σε πολύπλευρη κρίση μεταδημοκρατικού καπιταλισμού εκθετική ανάπτυξη της επιστημοτεχνικής επανάστασης οδήγησε, όπως ήταν αναμενόμενο, σε αναζωπύρωση της συζήτησης για τις θετικές και αρνητικές επιπτώσεις, ιδίως για τους κινδύνους μιας ανεξέλεγκτης εξέλιξής της. Στο πλαίσιο αυτό, χωρίς να παραθεωρείται το γεγονός του εγκλωβισμού των νέων τεχνολογιών στις κυρίαρχες καπιταλιστικές σχέσεις παραγωγής και συνακόλουθα της αξιοποίησής τους για την καπιταλιστική αναδιάρθρωση, δεν μπορούν καταρχήν να αμφισβητηθούν ορισμένες σημαντικές όψεις της εφαρμογής τους στην οικονομική, κοινωνική και ιδιωτική ζωή. Από την άλλη όμως πλευρά επισημαίνονται και σημαντικοί κίνδυνοι από μια κακόβουλη και καταχρηστική αξιοποίησή τους, με αποτέλεσμα να αξιώνεται η λήψη των αναγκαίων θεσμικών αναχωμάτων. Είναι δε χαρακτηριστικό ότι οι σχετικές επισημάνσεις και προειδοποιήσεις γίνονται από μη αρνούμενους το καπιταλιστικό σύστημα τόσο πολιτικούς όσο και επιστήμονες και τεχνικούς, ερευνητές της τεχνητής νοημοσύνης. Δεν είναι έτσι τυχαίες οι πρόσφατες προειδοποιήσεις ομάδας ειδικών, στους οποίους συγκαταλέγεται και ο Sam Altman, διευθύνων σύμβουλος της εταιρίας OpenAI, και δημιουργός του πλέον προηγμένου λογισμικού τεχνητής νοημοσύνης ChatGPT, σύμφωνα με τις οποίες οι κίνδυνοι από μια ανεξέλεγκτα εξελισσόμενη τεχνητή νοημοσύνη είναι εφάμιλλοι των οφειλόμενων σε μια πανδημία ή ένα πυρηνικό πόλεμο κινδύνων. Η επιτακτική ανάγκη αντιμετώπισης των σχετικών κινδύνων αποτυπώνεται στο Σχέδιο Κανονισμού του Ευρωπαϊκού κοινοβουλίου και του Συμβουλίου της 21/04/2021 για τη θέσπιση ρυθμιστικών της τεχνητής νοημοσύνης πλαισίων.
ΙΙ. Ένας από τους επαγγελματικούς επιστημονικούς κλάδους που, ιδίως τα τελευταία χρόνια, βρίσκεται ενώπιον των προκλήσεων της τεχνητής νοημοσύνης, είναι ο χώρος εύρεσης και πραγμάτωσης του δικαίου, δηλαδή το λειτούργημα του δικηγόρου και του δικαστή. Σημειωτέον στη θέση αυτή ότι, σε αντίθεση με άλλους επιστημονικούς κλάδους, όπως π.χ. της ιατρικής, που επέδειξε μια μεγάλη δεκτικότητα στην αξιοποίηση των νέων τεχνολογιών, ιδίως στον τομέα της ρομποτικής, ο κλάδος των νομικών υπήρξε ιδιαιτέρως επιφυλακτικός. Βεβαίως, η επιφυλακτικότητά του αυτή δεν αναφέρεται στις αυτονόητες και ευεργετικές για την υποβοήθηση του έργου του δικηγόρου και του δικαστή εφαρμογές της πληροφορικής, της ψηφιοποίησης και της επικοινωνίας, αλλά στην αξιοποίηση εξελιγμένων λογισμικών συστημάτων τεχνητής νοημοσύνης, των λεγόμενων «εικονικών ή ψηφιακών βοηθών» (virtuelle – digitale Assistenten). Πρόκειται για λογισμικά, τα οποία, κυρίως στις ΗΠΑ, τον Καναδά και το Ηνωμένο Βασίλειο, αλλά τα τελευταία χρόνια και στην ηπειρωτική Ευρώπη, βρίσκονται ήδη στη διάθεση κατά κύριο λόγο μεγάλων δικηγορικών εταιρειών. Ωστόσο δεν λείπουν ούτε οι υποστηρικτές περαιτέρω αξιοποίησης της τεχνητής νοημοσύνης στον κρίσιμο αυτό τομέα της δικαιοσύνης ούτε σχετικά πιλοτικά προγράμματα. Είναι δε χαρακτηριστικό ότι η αναφορά, συχνά κινδυνολογική, στην επέλαση των «ρομπότ δικηγόρων ή/και ρομπότ δικαστών» αποτελεί προσφιλές θέμα εφημερίδων και περιοδικών και όχι μόνο. Βεβαίως πρέπει να επισημανθεί προκαταβολικά ότι η αντικατάσταση του δικηγόρου ή του δικαστή από μία προικισμένη με τεχνητή νοημοσύνη, σκεπτόμενη και αποφασίζουσα, μηχανή, πέραν των ποικίλων σοβαρών νομικών, βιοηθικών, φιλοσοφικών και οντολογικών-ανθρωπολογικών επιφυλάξεων και αντιρρήσεων, φαίνεται να προσκρούει τουλάχιστον επί του παρόντος και για το ορατό μέλλον σε ανυπέρβλητα εμπόδια.
Σημειωτέον στη θέση αυτή ότι, ήδη από τις αρχές της δεκαετίας του ‘70, που σημαδεύτηκε από την επανάσταση της πληροφορικής και της μικροηλεκτρονικής τεχνολογίας, άρχισε ο προβληματισμός για τις δυνατότητες, τους κινδύνους και τα όρια της παρέμβασης της πληροφορικής στο δίκαιο (S. Simitis). Βεβαίως, όπως ήταν επόμενο, η σχετική συζήτηση συνεχίστηκε και ενισχύθηκε από την τεχνολογική έκρηξη που έλαβε χώρα κατά την τέταρτη βιομηχανική επανάσταση. Ήδη, όπως αναφέρθηκε, παρά τις αρχικές επιφυλάξεις, η αξιοποίηση εξελιγμένων λογισμικών και προγραμμάτων τεχνητής νοημοσύνης στο κοινωνικά και οικονομικά ευαίσθητο πεδίο της παροχής νομικών υπηρεσιών και απονομής της δικαιοσύνης, εμφανίζει μια σημαντική ανοδική πορεία.
ΙΙΙ. Εν πρώτοις όσον αφορά τον τομέα της δικηγορίας, η διείσδυση εξελιγμένων λογισμικών και συναφών προγραμμάτων εμφανίζει σημαντική πρόοδο. Πρόκειται, πιο συγκεκριμένα, για συστήματα αναζήτησης, συγκέντρωσης, ταξινόμησης και επεξεργασίας ενός μεγάλου όγκου δεδομένων και πληροφοριών που περιέχονται σε διάφορα έγγραφα (νομοθετικές ρυθμίσεις, εγκυκλίους, γνωμοδοτήσεις και δικαστικές αποφάσεις), η γνώση, ανάλυση και επεξεργασία των οποίων απαιτούνται για τη σωστή προετοιμασία και την επιτυχή νομική αντιμετώπιση της επίμαχης υπόθεσης. Ιδιαιτέρως χρήσιμος είναι ο ρόλος των προγραμμάτων αυτών στην εξωδικαστηριακή δικηγορία, όπως π.χ. στην επεξεργασία και διαμόρφωση σχεδίου συμβάσεων κ.λπ.. Είναι, βεβαίως, αυτονόητο ότι το όποιο αποτέλεσμα μιας, επεξεργασμένης από σύστημα τεχνητής νοημοσύνης, εργασίας πρέπει να ελέγχεται από τον δικηγόρο. Πολλώ μάλλον καθώς, όπως η σχετική πράξη έχει δείξει, τα συστήματα αυτά ούτε αλάνθαστα, αλλά ούτε αντικειμενικά και αμερόληπτα, παρά τις όποιες αντίθετες διαβεβαιώσεις, είναι. Τούτο δε καθώς, επειδή προγραμματίστηκαν από άνθρωπο, υπάρχει ο κίνδυνος «μόλυνσής» τους από τυχόν μεροληπτικές αντιλήψεις ή προκαταλήψεις του προγραμματιστή τους, π.χ. αναφορικά με το φύλο ή την εθνοτική καταγωγή.
ΙV. Ωστόσο, πέραν από την απαλλαγή του, χρησιμοποιούντος ένα τέτοιο πρόγραμμα, δικηγόρου από ένα επίπονο, ενεργειοβόρο και χρονοβόρο έργο, είναι πιθανή η επέλευση και ενός άλλου οφέλους, κυρίως για τις απασχολούσες δικηγορικές εταιρείες πολυάριθμο βοηθητικό προσωπικό (π.χ. λογιστές, προγραμματιστές κ.ά.), και κυρίως νέους δικηγόρους. Πρόκειται για την απαλλαγή του από σημαντικό μέρος του κόστους απασχόλησης, καθώς τμήμα ή και το σύνολο της εργασίας του βοηθητικού προσωπικού και των νέων συνεργατών αναλαμβάνει και διεκπεραιώνει ο αλγόριθμος. Το όφελος όμως αυτό δικηγορικής εταιρείας προκαλεί από την άλλη πλευρά ζημία στους εργαζόμενους και συνεργάτες της, καθώς τους εμπλέκει στον κίνδυνο είτε επαγγελματικής υποβάθμισης είτε κυρίως τεχνολογικής ανεργίας. Ενδεικτική της απειλής αυτής είναι η προ πενταετίας διατυπωθείσα εκτίμηση της εταιρείας McKinsey ότι το 35% των βοηθών δικηγορικών γραφείων θα μπορούσε να αυτοματοποιηθεί. Χαρακτηριστική, άλλωστε, είναι και η επισήμανση στελέχους μεγάλης δικηγορικής εταιρείας, δραστηριοποιούμενης στο Σικάγο, ότι «θα ανησυχούσε αν τα παιδιά που σπούδαζαν νομικά».
Η ανησυχία αυτή, στο βαθμό που αφορά το μέλλον των αποφοίτων νομικών σχολών, αλλά και την εργασιακή ασφάλεια των νέων δικηγόρων, δεν αποτελεί «μουσική του μέλλοντος», αλλά πραγματική παρούσα απειλή. Πρόκειται για μια εκδήλωση του, αποτελούντος νομοτελειακή συνέπεια της εξέλιξης της σχέσης ζωντανής και ενσωματωμένης στα συστήματα αυτοματοποίησης, νεκρής εργασίας, φαινομένου της τεχνολογικής ανεργίας η οποία ήδη επεκτείνεται και στις λεγόμενες γνωστικές εργασίες. Εξάλλου, το γεγονός ότι, πέραν της αξιοποίησης των ρομποτικών αυτών συστημάτων από τα δικηγορικά γραφεία, πρόσβαση σε αυτά έχουν και οι, αντιμετωπίζοντες, απλά βεβαίως και συνήθη, όχι σύνθετα και πολύπλοκα, νομικά ζητήματα, πολίτες, καθώς συνεπάγεται μείωση ενός μέρους της δικηγορικής ύλης, κυρίως μικρομεσαίων γραφείων, έχει ως αποτέλεσμα την ενίσχυση της προαναφερθείσας επαγγελματικής αβεβαιότητας στον πολυπληθή αυτό χώρο. Σημειωτέον ότι, όπως έχει υπολογιστεί, το μηνιαίο κόστος της αξιοποίησης ενός εξοπλισμένου με τεχνητή νοημοσύνη λογισμικού αντιστοιχεί στο ωριαίο κέρδος ενός δικηγόρου!
V. Μεταξύ των πολλών, δραστηριοποιούμενων κυρίως στις ΗΠΑ και τον Καναδά, αλλά και την Ευρώπη σχετικών προγραμμάτων (Chatbots), δεσπόζουσα θέση κατέχει το DoNotPay του J. Browder, Άγγλου φοιτητή του πανεπιστημίου Stanford. Η σχετική υπηρεσία που προσέφερε αρχικά το λογισμικό αυτό σύστημα, αφορούσε την παροχή πληροφοριών για τις κλήσεις που λάμβανε ένας πολίτης λόγω παραβάσεων του δικαίου της οδικής κυκλοφορίας και την επιβολή σχετικών προστίμων, καθώς και την έγερση σχετικών ενστάσεων. Είναι δε χαρακτηριστικό ότι εντός μιας διετίας το πρόγραμμα αυτό παρενέβη σε 375.000 περιπτώσεις επιβολής προστίμων για παράνομη στάθμευση. Στη συνέχεια το πρόγραμμα αυτό επεξέτεινε τις σχετικές παρεμβάσεις τους και στο δίκαιο προστασίας των καταναλωτών, και όχι μόνο. Βεβαίως, το λογισμικό αυτό σύστημα παροχής νομικών υπηρεσιών το χαρακτηριζόμενο και ως «ρομπότ-δικηγόρος», πέραν της φιλοδοξίας του για περαιτέρω επέκταση και σε άλλους απαιτητικότερους νομικούς κλάδους, επιχείρησε ένα τολμηρό άλμα: τη δραστηριοποίησή του και ενώπιον δικαστηρίου. Πιο συγκεκριμένα, αξιοποιώντας την τεχνολογία αιχμής της τεχνητής νοημοσύνης ChatGPT, δημιούργημα της εταιρείας OpenAI (μοντέλο γλώσσας, ικανό να εκτελέσει πλήθος εργασιών, όπως συμμετοχή σε διάλογο και να δώσει απαντήσεις σε ερωτήματα κ.λπ.), επιχείρησε να εκπροσωπήσει τον εντολέα του ενώπιον δικαστηρίου στην Καλιφόρνια, σε υπόθεση παράβασης του δικαίου οδικής κυκλοφορίας, τον Φεβρουάριο του τρέχοντος έτους. Το, κατά πάσα πιθανότητα, πρώτο αυτό πείραμα διείσδυσης της «legaltech» στη διαδικασία ενώπιον του δικαστηρίου δεν είχε όμως αίσιο τέλος. Τούτο δε καθώς ο Browder, λόγω μαζικών αντιδράσεων από δικηγορικούς συλλόγους των ΗΠΑ και υπό το κράτος απειλών για υποβολή μήνυσης, ματαίωσε (προσώρας;) το εγχείρημά του.
VI. Βεβαίως το ενδιαφέρον για την εφαρμογή συστημάτων τεχνητής νοημοσύνης, δεν περιορίζεται στο δικηγορικό λειτούργημα. Ήδη και ο ευαίσθητος τομέας απονομής της δικαιοσύνης, τα δικαστήρια, βρίσκεται ήδη ενώπιον σχετικών προκλήσεων. Η σχετική συζήτηση δεν αφορά την αυτονόητη πια αξιοποίηση της τράπεζας νομικών δεδομένων και πληροφοριών και γενικότερα των δυνατοτήτων του ηλεκτρονικού υπολογιστή, ούτε βεβαίως διαδικαστικές διευκολύνσεις, αφορούσες π.χ. την ψηφιοποίηση της δικογραφίας, των αποδεικτικών εγγράφων, των επιδόσεων κ.λπ. Πολύ περισσότερο επεκτείνεται σε δυνατότητες εντονότερων παρεμβάσεων της αυτοματοποίησης, διευκολυντικών σημαντικά στην εκπλήρωση του δικαστικού έργου, όπως είναι η επεξεργασία του συγκεντρωθέντος υλικού, κυρίως δε η στήριξη στην κατάστρωση του δικανικού συλλογισμού και τον σχεδιασμό της απόφασης. Στο πλαίσιο αυτό είναι χαρακτηριστικό ότι, ολοένα και συχνότερα, γίνεται λόγος στον Τύπο και όχι μόνο για «ρομπότ-δικαστές» (robo-richter), χωρίς αυτό να σημαίνει, βεβαίως, αντικατάσταση του ανθρώπου-δικαστή από ένα σύστημα τεχνητής νοημοσύνης, πράγμα που θα προσέκρουε σε ανυπέρβλητα νομικά, ηθικά, φιλοσοφικά και επί του παρόντος και για το ορατό μέλλον, τεχνολογικά εμπόδια.
Ωστόσο, όπως αποδεικνύει η πράξη, ένα τέτοιο λογισμικό θα μπορούσε να παράσχει σημαντικές διευκολύνσεις στο δικαστή ως «εικονικός βοηθός», αναφορικά τουλάχιστον με την εκδίκαση απλών, συχνά επαναλαμβανόμενων, οιονεί τυποποιημένων και έτσι δεκτικών αυτοματοποιημένης επεξεργασίας, υποθέσεων, Στο πλαίσιο αυτό, άξια ιδιαίτερης αναφοράς είναι η περίπτωση του δικαστή του εργατοδικείου της Καρθαγένης (Κολομβία) Juan Manuel Padilla, ο οποίος στήριξε την αφορούσα υπόθεση διεκδίκησης από ανήλικο άτομο, πάσχον από αυτισμό, νοσηλίων από το σύστημα ιδιωτικής ασφάλειας, απόφασή του στο σύστημα τεχνητής νοημοσύνης ChatGPT.
Σε εξέλιξη βρίσκεται, άλλωστε, το πιλοτικό πρόγραμμα του εφετείου της Koblenz, με στόχο την αξιοποίηση της τεχνητής νοημοσύνης για την διευκόλυνση και επιτάχυνση της επεξεργασίας των (ψηφιοποιημένων ήδη) δικογραφιών, ιδίως αναφορικά με το οικοδομικό δίκαιο. Σημειωτέον, πάντως, ότι, υπέρ της ενίσχυσης των εφαρμογών της τεχνητής νοημοσύνης και της αναγνώρισης των «ρομποτικών δικαστών» ανασύρονται από ορισμένη πλευρά επιχειρήματα, αφορώντα την αμεροληψία, την αντικειμενικότητα και την προαγωγή της ισονομίας των ρομποτικών συστημάτων. Ωστόσο, όπως ήδη έχει επισημανθεί, πρέπει να τονιστεί ότι η επιχειρηματολογία αυτή παραβλέπει τον επηρεασμό του συστήματος τεχνητής νοημοσύνης από τον άνθρωπο προγραμματιστή του. Αυτό συνεπάγεται τον κίνδυνο το λογισμικό, ιδίως στο βαθμό που είναι εξοπλισμένο με την δυνατότητα υπόδειξης λύσεων, να είναι «μολυσμένο» από τυχόν μεροληπτικούς προϊδεασμούς ή προκαταλήψεις, π.χ. κατά των γυναικών ή των έγχρωμων, που χαρακτηρίζουν τον προγραμματιστή. Μια κλασσική περίπτωση «μόλυνσης» αφορά την επεξεργασία από το σύστημα αυτοματοποίησης των αιτήσεων υποψηφίων προς πρόσληψη εργαζομένων, κατά την οποία η προεπιλογή ή και η τελική επιλογή των επιτυχόντων είναι επηρεασμένη από το φύλλο ή και την εθνοτική καταγωγή τους. Ένας τέτοιος κίνδυνος θα μπορούσε να υπάρξει στην περίπτωση επεξεργασίας μιας βοηθητικής παρέμβασης και λειτουργίας του «ρομποτικού δικαστή», η οποία, στο βαθμό που θα επηρέαζε την κρίση του δικαστή, θα οδηγούσε στην παραβίαση ζωτικών δικαιωμάτων και συμφερόντων των διαδίκων.
VII. Πέραν αυτών, η στήριξη μιας δικαστικής απόφασης στην αυτοματοποιημένη επεξεργασία δεδομένων εμπεριέχει έναν ακόμη σημαντικό κίνδυνο. Δεδομένης της τάσης σχηματοποίησης και γενίκευσης που χαρακτηρίζει τον δικανικό συλλογισμό, η οποία και διευκολύνει τη χρήση του στηριζόμενου στα μαθηματικά αλγοριθμικού συστήματος τεχνητής νοημοσύνης, εμπεριέχει τον κίνδυνο, η αυτοματοποιημένη δικαιοσύνη να οδηγήσει σε μια περαιτέρω υποβάθμιση ή και αχρήστευση της όποιας εναλλακτικής, ερμηνευτικής των επίμαχων κανόνων δικαίου, άποψης. Αποτέλεσμα μιας τέτοιας εξέλιξης δεν θα ήταν μόνο η ακύρωση του δημιουργικού διαλόγου μεταξύ επιστήμης και νομολογίας. Πολύ περισσότερο θα επλήττοντο σημαντικά η αντικειμενικότητα, η πειστικότητα και τελικώς η ορθότητα της δικαστικής κρίσης, η οποία θα ήταν εγκλωβισμένη στο μονόδρομο της αναχθείσας σε παντοδύναμη, εμπεριέχουσας τη μόνη ερμηνευτική αλήθεια, κρατούσας άποψης, η οποία, μέσω της νομολογικής αναπαραγωγής, θα καθίστατο αδιαμφισβήτητη. Δεν πρέπει άλλωστε να διαφεύγει της προσοχής ότι η απονομή της δικαιοσύνης ως εξατομικευμένη στάθμιση συμφερόντων απαιτεί ανθρώπινη προσέγγιση, κριτική ικανότητα και ενσυναίσθηση, ιδιότητες που και το πιο προηγμένο σύστημα τεχνητής νοημοσύνης δεν διαθέτει.
Τούτο δε καθώς ο εξοπλισμός της τεχνητής νοημοσύνης με τις ιδιότητες αυτές θα προϋπέθετε την ικανότητα να αντιγράφει με ακρίβεια και πληρότητα την ανθρώπινη νοημοσύνη, δηλαδή το θαύμα του ανθρώπινου εγκεφάλου. Πολλώ δε μάλλον καθώς είναι ακόμη ανεξερεύνητες οι νοητικές λειτουργίες του, ιδίως δε η σχέση συνείδησης και ασυνείδητου, οι νευρωνικοί μηχανισμοί ομοιόστασης και το μοναδικό ανθρώπινο επίτευγμα των μεταναπαράστασεων (Α. Φωκάς). Τα όποια πεπερασμένα όρια της τεχνητής νοημοσύνης δεν πρέπει, ωστόσο, να οδηγήσουν σε εφησυχασμό. Τούτο δε καθώς, πέραν από τους συνδεδεμένους με τη μεγάλη επανεκκίνηση φόβους διολίσθησης στον ψηφιακό ολοκληρωτισμό, τη βιοπολιτική επιτήρηση και τη νέα ευγονική του μετα-ανθρωπισμού, δεν πρέπει να υποβαθμίζονται οι κίνδυνοι που συνδέονται με την παρέμβαση των νέων τεχνολογιών στην πραγμάτωση του δικαίου και η επιτακτική ανάγκη θεσμικής αντιμετώπισής τους. Δεν είναι έτσι τυχαίο το γεγονός ότι οι κίνδυνοι που συνδέονται με την εφαρμογή της τεχνητής νοημοσύνης στην απονομή της δικαιοσύνης και αφορούν τα θεμελιώδη δικαιώματα, την απαγόρευση των διακρίσεων, τις αρχές της διαφάνειας, της αμεροληψίας και του «έλεγχου από τον χρήστη» της τεχνολογίας οδήγησαν την Ευρωπαϊκή Επιτροπή για την αποτελεσματικότητα της Δικαιοσύνης στην υιοθέτηση κατά την 31η σύνοδο της Ολομέλειας, που έλαβε χώρα στις 3-4/12/2018, ενός «Ευρωπαϊκού Χάρτη Δεοντολογίας για τη χρήση της Τεχνητής Νοημοσύνης στα δικαστικά συστήματα και στο περιβάλλον τους». Σημειωτέον, τέλος, ότι στην Ελλάδα, πέραν της απόλαυσης στοιχειωδών, αλλά σημαντικών διευκολύνσεων της ψηφιοποίησης, μέσω των ηλεκτρονικών υπολογιστών και της αυτοματοποιημένης ενημέρωσης και επικοινωνίας, με εξαίρεση ίσως μεγάλες δικηγορικές εταιρείες που διαθέτουν τμήμα πληροφορικής, οι προκλήσεις των αλγορίθμων και της τεχνητής νοημοσύνης, έστω με σημαντική καθυστέρηση, αποτελούν ήδη αντικείμενο επιστημονικής συζήτησης. Στο πλαίσιο αυτό με ενδιαφέρον αναμένεται η οργανωθείσα από την Ακαδημία Αθηνών για τις 5 Δεκεμβρίου επιστημονική συζήτηση με θέμα: «Η τεχνητή νοημοσύνη στο πεδίο της Δικαιοσύνης».
Ενδεικτική βιβλιογραφία
- Α.Σ. Φωκάς, Μονοπάτια της κατανόησης, 2023.
- S. Fokas, Can artificial intelligence reach human thought?, PNAS Nexus 2023, pp1-5.
- Π. Παυλόπουλος, Από την βιομηχανική επανάσταση στην τεχνολογική: στον αστερισμό ενός αβέβαιου μέλλοντος, 2019.
- Μ. Tegmarkt, LIFE 3a. Τι σημαίνει να είσαι άνθρωπος στην εποχή της τεχνητής νοημοσύνης, 2018.
- Α. Καΐσης, σε: Π. Γέσιου-Φαλτσή / Π. Γκλαβίνης, κ.ά, Δίκαιο χωρίς σύνορα, 2018, σ. 336 επ.
- Δ. Τραυλος-Τζανετάτος, Το εργατικό δίκαιο στην τέταρτη βιομηχανική επανάσταση. Ψηφιοποίηση, ρομποτική και τεχνητή νοημοσύνη, 2020.
- Λ. Μήτρου (επιμ.), Μπορεί ο αλγόριθμος να είναι ηθικός, να είναι δίκαιος, να είναι διαφανής, να δικάζει και να διοικεί;, 2023.
- Π. Παπακωνσταντίνου, Άνθρωπος και Ρομπότ, 2020.
- Manzeschke / F. Karsch (Hrsg), Roboter, Computer und Hybride. 2016.
- Frank, Künstliche Intelligenz, Transhumanismus und menschliche Personalität, 2022.
- Nink, Justiz und Algorithmen, 2021.