Δικαίωμα στο ψέμα!

REUTERS

Πώς η τεχνολογία απειλεί τα «κατά συνθήκη ψεύδη».

«Τι ωραίο είναι αυτό που φοράς»! «Πολύ νόστιμο το φαγητό σου»! «Θα τα πούμε σύντομα»!  Πόσες και πόσες φορές δεν έχει τύχει να πείτε κάποιο μικρό, αθώο, «λευκό» ψέμα, για να μην θίξετε τον άλλο, για να αποφύγετε μία άβολη κατάσταση, απλά από ευγένεια ή όταν το επιτάσσουν οι περιστάσεις. 

Το έχετε κάνει σε μία συνέντευξη για δουλειά, σε ένα πρώτο ραντεβού. Για φανταστείτε όμως αυτός που κάθετε απέναντί σας να μπορεί, με τη βοήθεια και της τεχνολογίας, να μπορεί να ανιχνεύει από τις κινήσεις του προσώπου σας και τον τόνο της φωνής σας ακόμη και το παραμικρό ψήγμα ψέματος που έχουν -έστω και καλοπροαίρετα- τα λόγια σας. Σκέτη καταστροφή και φρίκη!

Το σενάριο δεν είναι φανταστικό, ούτε καν μακρινό στο χρόνο. Ήδη, τα software αναγνώρισης προσώπου κάνουν… θαύματα, όπως και οι τεχνολογίες παρακολούθησης, που -συνδυαστικά- στη νέα εξελιγμένη μορφή και πιο εμπορική μορφή τους είναι σχεδόν έτοιμες να κυκλοφορήσουν μαζικά στην αγορά, δυνητικά για όλους!

Ήδη, μία ομάδα ερευνητών στο πανεπιστήμιο της Καλιφόρνια βρίσκεται στο τελευταίο στάδιο των πειραμάτων στην εταιρία Emotient, την οποία έχουν οι ίδιοι ιδρύσει, πάνω σε μηχανήματα που αναγνωρίζουν τα ανθρώπινα συναισθήματα βάσει αλγορίθμων. Το τελευταίο project της είναι η δημιουργία μίας εφαρμογής ειδικά για τα Google Glasses, που θα «χαρτογραφούν» τις αντιδράσεις όσων βρεθούν στο οπτικό πεδίο των χρηστών τους.

Ήδη, έχουν καταφέρει να «αποκρυπτογραφούν» πέντε από τα βασικότερα ανθρώπινα συναισθήματα: ευτυχία, λύπη, θυμό, αποστροφή, ακόμη και περιφρόνηση. Τώρα, οι ερευνητικές προσπάθειες επικεντρώνονται και στην διάκριση μεταξύ των πραγματικών και των υποκριτικών αντιδράσεων ενός ανθρώπου!

Προς το παρόν, τα εργαστηριακά ποσοστά επιτυχίας φθάνουν το 85%. Κι εάν αυτό δεν σας φαίνεται αρκετό, τότε λάβετε το εξής υπόψη: κατά μέσο όρο, οι άνθρωποι μπορούν να διακρίνουν την αληθινή από την ψεύτικη αντίδραση ενός συνανθρώπου τους με ακρίβεια μόλις 55%!

Κοντολογίς, είναι σαν οι επιστήμονες να έχουν ενσωματώσει έναν ανιχνευτή ψεύδους στην τεχνολογία αναγνώρισης προσώπου, παραβιάζοντας κάθε φυσικό διαχωρισμό μεταξύ συναισθήματος, σκέψης κι έκφρασης. Και κάπως έτσι -όπως πολύ εύστοχα παρατηρεί ο Νορμπέρτο Αντράντε στο περιοδικό The Atlantic– «η ταυτότητά μας θα γίνεται μονοχρωματική, καθώς θα χάσει τα καλά κομμάτια του πλούτου και της διαφορετικότητας».

«Θα βρίσκεται υπό την τυραννική πίεση μίας μόνιμης εποπτείας των σκέψεων και των αισθημάτων μας», τονίζει ο μεταδιδακτορικός ερευνητής στο πανεπιστήμιο του Berkeley. «Ενώ λοιπόν είναι πράγματι σημαντικό να υπερασπιζόμαστε και να στηρίζουμε μία κοινωνία που θα βασίζεται στις αξίες της αλήθειας και της διαφάνειας, υπάρχει ο κίνδυνος -σε ατομικό επίπεδο και στις διαπροσωπικές σχέσεις- η πολλή αλήθεια και διαφάνεια να αποδειχθούν πολύ βλαπτικές».

Κι αυτό γιατί θα πρόκειται για μηχανικές αξίες, βγαλμένες μέσα από πολύπλοκες ηλεκτρονικές συσκευές και όχι μέσα από την πολυπλοκότητα της ανθρώπινης φύσης. Και τότε, καταλήγει ο Αντράντε, «θα κινδυνεύουμε πραγματικά να χάνουμε λίγο λίγο τον αυθορμητισμό μας και να γινόμαστε ολοένα και πιο όμοιοι με τους προκαθορισμένους  αλγόριθμους, που μας παρατηρούν και μας κρίνουν».

Διαβάστε ακόμη:

Το website που θα ελέγχει τα «ψέματα» υποψηφίων ευρωβουλευτών

Πότε είναι κακό να είναι κάποια το «καλό κορίτσι»

Γνωρίστε το πρώτο ρομπότ με ανθρώπινα συναισθήματα