Ο Έλον Μασκ φοβάται την τεχνητή νοημοσύνη και… το πληρώνει

Ο Έλον Μασκ φοβάται την τεχνητή νοημοσύνη και… το πληρώνει
Elon Musk, Chief Executive of Tesla Motors and SpaceX, speaks during the Reuters Global Technology Summit in San Francisco June 18, 2013. REUTERS/Stephen Lam (UNITED STATES - Tags: BUSINESS SCIENCE TECHNOLOGY TRANSPORT) - RTX10SPG

Ο ιδρυτής της Tesla χρηματοδοτεί την έρευνα που θα κάνει ασφαλέστερη τη χρήση των μηχανών που σκέφτονται και μαθαίνουν.

Στη θεωρία, η πρόοδος της τεχνητής νοημοσύνης είναι μια θαυμάσια εξέλιξη που θα επιτρέψει στον άνθρωπο να εκτελεί πολλές εργασίες, θα βελτιώσει την παραγωγικότητα και θα υπηρετήσει την κοινωνία. Στην πράξη, όλοι φοβούνται τη στιγμή που στις μηχανές θα αρχίσουν να μπαίνουν… ιδέες.

Ο Έλον Μασκ γνωρίζει την τεχνολογία όσο λίγοι και την υιοθετεί στον μέγιστο βαθμό στις επιχειρήσεις και τα project του, ειδικά στα διαστημικά. Για αυτό και είναι από εκείνους που ανησυχούν όλο και περισσότερο ότι θα έρθει η μέρα που οι μηχανές -οποιασδήποτε μορφής- με νοημοσύνη υψηλού επιπέδου θα μας δημιουργήσουν σοβαρά προβλήματα.

Την ίδια άποψη έχουν εκφράσει ο νομπελίστας φυσικός Στίβεν Χόκινγκ και ο ιδρυτής της Microsoft Μπιλ Γκέιτς. Για αυτό ο Μασκ ενώνει τις δυνάμεις του με το Open Philanthropy Project και το Future of Life Institute και ενισχύουν ερευνητικές ομάδες που σκοπό έχουν την έρευνα για τους τρόπους με τους οποίους θα εμποδιστεί αυτή η αρνητική εξέλιξη.

Μέχρι στιγμής έχουν συγκεντρωθεί $7 εκατ. τα οποία έχουν μοιραστεί σε 37 ομάδες.

Όταν μιλάμε για συνέπειες δεν πρέπει το μυαλό μας να πηγαίνει στις χολιγουντιανές παραγωγές με τα ρομπότ, τα όπλα, τα ταξίδια στο χρόνο και τις καταστροφές. Περισσότερο μιλάμε για τις καθημερινές εφαρμογές και τα πρακτικά προβλήματα που προκύπτουν από την ύπαρξη και κίνηση αυτόνομων ρομπότ (από βοηθό σε κατάστημα μέχρι αυτοκίνητο χωρίς οδηγό) στον ίδιο χώρο με τους ανθρώπους. Για παράδειγμα, μια ομάδα εξετάζει τι πρέπει να γίνεται από ασφαλιστικής και νομικής πλευράς αν ένα αυτόνομο αυτοκίνητο περάσει με κόκκινο. Ποιος παίρνει την κλήση; Αν συμβεί ατύχημα ποιος είναι υπεύθυνος;

Μια άλλη ομάδα ερευνά τους κανόνες που θα πρέπει να εφαρμοστούν στο πώς ένας υπολογιστής με νοημοσύνη θα είναι σε θέση να δικαιολογήσει και να εξηγήσει τις αποφάσεις του στους ανθρώπους. Όχι μόνο τι έκανε ακριβώς, αλλά και το γιατί.

Ένας χρηματιστής μπορεί να προβεί σε μια αμφιβόλου νομιμότητας συναλλαγή, αλλά δεν το κάνει, είναι θέμα επιλογής του. Αν αυτός αντικατασταθεί από ένα αυτόματο σύστημα που δεν υπακούει «τυφλά» κανόνες, αλλά είναι σχεδιασμένο να παίρνει και πρωτοβουλίες, τι επιλογές θα κάνει;

Όλη αυτή η έρευνα σκοπό έχει να θέσει τα θεμέλια στα οποία θα οικοδομηθεί η σχέση μας με τις μηχανές τις επόμενες δεκαετίες.