Δευτέρα 11 Μαρτίου 2019

Eρχονται οι ηλεκτρονικοί φυσιογνωμιστές

Ω τι κόσμος Θεέ μου ! Με τέτοια εφιαλτικά συστήματα, είναι ποτέ δυνατόν να γύρει θετικά η πλάστιγγα;;;


Νέα ηλεκτρονικά προγράμματα αναλύουν τις εκφράσεις των προσώπων μας για να αποκαλύψουν τα συναισθήματα μας


Εφτασε η εποχή που ένα ηλεκτρονικό πρόγραμμα μπορεί αναλύοντας τις εκφράσεις του προσώπου ενός ατόμου να διαπιστώνει αν το άτομο αυτό αποτελεί πιθανή απειλή; Αν το άτομο αυτό πρόκειται να πραγματοποιήσει μια παράνομη ή ακόμη και τρομοκρατική ενέργεια; Οι αμερικανικές Αρχές ήθελαν να έχουν στην κατοχής τους ένα τέτοιο πρόγραμμα και έτσι το 2003 ξεκίνησαν οι δοκιμές του Spot (Screening of Passengers by Observation Techniques).


Ηταν ένα πρόγραμμα παρακολούθησης για την ανάπτυξη του οποίου είχε ζητηθεί η συμβολή του Πολ Εκμαν, καθηγητή ψυχολογίας στο πανεπιστήμιο της Καλιφόρνια. Ο Εκμαν μαζί με δύο συναδέλφους του είχαν αναπτύξει στην δεκαετία του 1960 μια θεωρία σύμφωνα με την οποία υπάρχουν έξι βασικά συναισθήματα (θυμός, απέχθεια, φόβος, χαρά, λύπη, έκπληξη) τα οποία υπάρχουν σε όλους τους ανθρώπους ανεξαρτήτως του τόπου που γεννήθηκαν και ζουν και ανεξαρτήτως του πολιτισμού και της κουλτούρας τους. Σύμφωνα με τον Εκμαν και τους συναδέλφους του αυτά τα συναισθήματα αποτυπώνονται με συγκεκριμένους τρόπους στο πρόσωπο οπότε μπορούν να ανιχνευθούν.


Για να αποδείξουν την θεωρία τους ο Εκμαν και οι συνάδελφοι του παρουσίασαν εικόνες από εντελώς διαφορετικά άτομα που είχαν την ίδια έκφραση προσώπου και είχε διαπιστωθεί ότι εκείνη την στιγμή ένιωθαν το ίδιο συναίσθημα. Παρουσίασαν για παράδειγμα, τις εικόνες ενός αμερικανού τραπεζίτη και ενός ιθαγενή κυνηγού από την Παπούα Νέα Γουινέα οι οποίοι είχαν συνοφρυωθεί και είχαν σφίξει τα χείλη τους. Είχε διαπιστωθεί ότι την δεδομένη στιγμή και οι δύο ένιωθαν θυμό. Οι τρεις ερευνητές ανέπτυξαν στην συνέχεια και μια μέθοδο ανάλυσης των εκφράσεων του προσώπου για αν εντοπίζονται τα συναισθήματα ενός ανθρώπου.


Το Spot προοριζόταν αρχικά για χρήση στα μέσα μαζικής μεταφοράς των ΗΠΑ (κυρίως τα αεροδρόμια) και για αυτό εκπαιδεύονταν σε αυτό υπάλληλοι των μέσων μαζικής μεταφοράς για να μπορούν να αναγνωρίζουν στα πρόσωπα των επιβατών άτομα που φαίνονταν ύποπτα. Όταν τελικά το 2007 το Spot άρχισε να χρησιμοποιείται τα προβλήματα ήταν πολλά. Οι υπάλληλοι που ήταν επιφορτισμένοι με τον εντοπισμό ύποπτων ατόμων υπεδείκνυαν επιβάτες οι οποίοι στην συνέχεια ανακρίνονταν. Όμως αποδείχθηκε ότι οι υπάλληλοι επέλεγαν συνήθως άτομα κατά τύχη και όχι βάση της ανάλυσης των εκφράσεων τους οι οποίες θα μπορούσαν να θεωρηθούν ως περίεργε ή ύποπτες. Για αυτό και από τους παρά πολλούς υπόπτους που υπέδειξαν οι υπάλληλοι ελάχιστοι τελικά συνελήφθησαν και κανείς από αυτούς δεν αντιμετώπισε κατηγορίες σχετικές με τρομοκρατία. Ο Εκμαν μετά από όλα αυτά πήρε δημόσια αποστάσεις από το Spot υποστηρίζοντας ότι η μέθοδος του δεν εφαρμόστηκε σωστά. Όμως κάποιοι ειδικοί ανέφεραν ότι η αποτυχία του προγράμματος ήταν προδιαγεγραμμένη αφού όπως υποστηρίζουν η μέθοδος του Εκμαν είναι λάθος στον πυρήνα της. Σύμφωνα με αυτούς τους ειδικούς δεν μπορεί να υπάρχει αξιόπιστη ανάλυση των εκφράσεων του προσώπου και κατ’ επέκταση σύνδεση τους με συγκεκριμένα συναισθήματα.


Τα νέα προγράμματα


Όπως αναφέρει σε δημοσίευμα της η εφημερίδα Guardian τα τελευταία χρόνια πολλές εταιρείες αποφάσισαν να χρησιμοποιήσουν ξανά την μέθοδο του Εκμαν για να εκπαιδεύσουν αυτή την φορά όχι ανθρώπους αλλά αλγορίθμους στην ανάλυση των εκφράσεων του προσώπου και την σύνδεση τους με συγκεκριμένα κάθε φορά συναισθήματα. Οσοι εμπλέκονται στην ανάπτυξη αυτών των αλγορίθμων υποστηρίζουν ότι τα ηλεκτρονικά συστήματα που θα αναπτυχθούν θα είναι πολύ καλύτερα στην ανάλυση των εκφράσεων ενός προσώπου από ότι οι άνθρωποι και θα μπορούν τα προγράμματα να ανακαλύψουν τα συναισθήματα από τα οποία κυριαρχείται κάποιος την δεδομένη στιγμή της παρακολούθησης του. Πολλοί ειδικοί όμως στον τομέα της ανάλυσης των συναισθημάτων υποστηρίζουν ότι και αυτοί οι νέοι προηγμένοι αλγόριθμοι θα αποτύχουν αφού τελικά θα κάνουν ότι και οι υπάλληλοι των μέσων μαζικής μεταφοράς δηλαδή θα μαντεύουν αν κάποιος είναι ύποπτος τέλεσης κάποιας αξιόποινης πράξης και η επιλογή τους δεν θα είναι αποτέλεσμα κάποιας αξιόπιστης ανάλυσης. Οι ειδικοί υποστηρίζουν ότι και αυτοί οι αλγόριθμοι όπως και το Spot στηρίζονται σε «ελαττωματική επιστήμη» όπως χαρακτηρίζουν την μέθοδο του Εκμαν.


Η βιομηχανία


Μπορεί πολλοί ειδικοί να δηλώνουν ότι δεν είναι εφικτό να γίνει αξιόπιστη ανάλυση των εκφράσεων του προσώπου ενός ανθρώπου και σύνδεση τους με τα συναισθήματα του αλλά αυτά τα προγράμματα δημιουργούν ένα νέο τομέα τεχνολογίας η εμπορική αξία του οποίου κοστολογείται αυτή την στιγμή στα 20 δισ. δολάρια. Εκτός από τον εντοπισμό κακοποιών ή τρομοκρατών τα συστήματα εντοπισμού συναισθημάτων μέσω της ανάλυσης των προσώπων μπορούν να έχουν διαφόρων ειδών εφαρμογές. Θα μπορούν για παράδειγμα, να παρακολουθούν τους οδηγούς για να διαπιστώνουν αν κάποιος για διαφόρους λόγους αρχίζει να γίνεται επικίνδυνος στο τιμόνι ή να βοηθούν τους γιατρούς να ελέγχουν την ψυχολογική κατάσταση στην οποία βρίσκονται οι ασθενείς τους στοιχείο σημαντικό για την πορεία της υγείας και της θεραπείας τους.


Όπως είναι ευνόητο λοιπόν πολλές εταιρείες θα ήθελαν να αποκτήσουν μερίδιο σε αυτή την πολύ δυναμική νέα αγορά. Πρωτοπόρος στον συγκεκριμένο τομέα είναι η μια start up εταιρεία η Affectiva η οποία δημιουργήθηκε από ερευνητές του εργαστηρίου Affective Computing στο MIT και αποτελεί τον εμπορικό βραχίονα για την εκμετάλλευση της τεχνολογίας ανάλυσης εκφράσεων του προσώπου που αναπτύχθηκε στο Πανεπιστήμιο. Η Affectiva ανέπτυξε κάποια στιγμή ένα σύστημα ανάλυσης των προσώπων και εντοπισμού των συναισθημάτων παιδιών που πάσχουν από Ασπεργκερ, ένα σύνδρομο που ανήκει στις διαταραχές του αυτιστικού φάσματος. Το σύστημα αποδείχθηκε αρκετά αξιόπιστο και έτσι η Affectiva προσεγγίστηκε από βιομηχανικού κολοσσούς του κλάδου των τροφίμων, από μεγάλα τηλεοπτικά δίκτυα και διάφορες εταιρείες για να συνεργαστούν στην ανάπτυξη ανάλογων συστημάτων που θα εξυπηρετούσαν τους σκοπούς τους. Η Affectiva έχει στην κατοχή της μια βάση δεδομένων 7.5 εκατ. ανθρώπων από 87 χώρες με καταγραφές των προσώπων τους είτε την ώρα που οδηγούσαν είτε όταν παρακολουθούσαν τηλεόραση. Τα στελέχη της εταιρείας υποστηρίζουν ότι αυτή η βάση δεδομένων την βοηθά να αναπτύσσει και να βελτιώνει τα συστήματα της. Γίγαντες της τεχνολογίας όπως η Microsoft, η IBM και η Amazon που αναπτύσσουν τεχνολογίες αναγνώρισης προσώπων υποστηρίζουν εσχάτως ότι τα συστήματα τους εμπεριέχουν και τεχνολογίες ανάλυσης συναισθημάτων.


Όπως είναι ευνόητο σαν τα μανιτάρια ξεπετάγονται μικρές εταιρείες που δημιουργούνται με αντικείμενο την ανάπτυξη τεχνολογίας ανάλυσης συναισθημάτων. Όμως εξακολουθούν να υπάρχουν πολλές ενστάσεις από ειδικούς για τα συστήματα που έχουν μέχρι σήμερα παρουσιαστεί καταγγέλλοντας μάλιστα ότι ορισμένα από αυτά είναι ολίγον… ρατσιστικά αφού δείχνουν ότι οι μαύροι έχουν περισσότερες εκφράσεις προσώπου που αποκαλύπτουν θυμό από ότι οι λευκοί. Για αυτό και υπάρχει συζήτηση ανάμεσα στους ειδικούς για το αν για να γίνει σωστά η ανάλυση των εκφράσεων του προσώπου ενός ατόμου θα πρέπει η σύγκριση να γίνει με τις εκφράσεις των προσώπων ατόμων ίδιας εθνικότητας. Όπως και να έχει το πράγμα τα προγράμματα αναζήτησης των συναισθημάτων μας είναι εδώ και όπως σε πολλές περιπτώσεις της σύγχρονης τεχνολογίας έτσι και σε αυτήν οι πιθανές ωφέλειες είναι πολλές και άκρως ενδιαφέρουσες αλλά και οι πιθανοί κίνδυνοι κακής χρήσης αυτής της τεχνολογίας είναι επίσης πολλοί. Μένει να δούμε που θα γείρει η πλάστιγγα…


Πηγή 

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

● Οι απόψεις του ιστολόγιου μπορεί να μην ταυτίζονται με τα περιεχόμενα του άρθρου. Τα άρθρα που δημοσιεύονται εδώ, ουδεμία ευθύνη εκ του νόμου φέρουμε καθώς εκφράζουν αποκλειστικά τις απόψεις των συντακτών τους και δεν δεσμεύουν με οποιοδήποτε τρόπο το ιστολόγιο.
● Οι διαχειριστές του ιστολόγιου δεν ευθύνονται για τα σχόλια και τους δεσμούς που περιλαμβάνει.
● Κάθε γνώμη είναι σεβαστή, αρκεί να αποφεύγονται ύβρεις, ειρωνείες και προσβλητικοί χαρακτηρισμοί, γενικά και εναντίον των συνομιλητών ή των συγγραφέων.
● Μην δημοσιεύετε άσχετα σχόλια με το θέμα.
● Με βάση τα παραπάνω οι διαχειριστές έχουν το δικαίωμα διαγραφής σχολίων χωρίς καμία άλλη προειδοποίηση.