Σύμφωνα με τον διευθύνοντα σύμβουλο της Google, Σούνταρ Πιτσάι, είναι απαραίτητο ένα παγκόσμιο ρυθμιστικό πλαίσιο για την Τεχνητή Νοημοσύνη, παρόμοιο με αυτό που χρησιμοποιείται για τον έλεγχο των πυρηνικών όπλων. Ο Πιτσάι εξέφρασε τις ανησυχίες του για την επίδραση της Τεχνητής Νοημοσύνης και δήλωσε ότι αυτές οι ανησυχίες τον κρατούν ξύπνιο τη νύχτα. Επιπλέον, υπογράμμισε ότι η εφαρμογή της τεχνολογίας αυτής θα μπορούσε να αποδειχθεί επιβλαβής αν δεν επιβληθεί σωστός έλεγχος και ρύθμιση.
Ο Πιτσάι θεωρεί πως για την Τεχνητή Νοημοσύνη θα χρειαστεί ένα παγκόσμιο ρυθμιστικό πλαίσιο, παρόμοιο με αυτό για τον έλεγχο των πυρηνικών όπλων. Ο επικεφαλής της Google αναγνωρίζει πως ο ανταγωνισμός στον τεχνολογικό κλάδο, θα μπορούσε παραμερίσει τον προβληματισμό για ζητήματα ασφαλείας. Σε συνέντευξή που παραχώρησε στην εκπομπή 60 minutes του CBS, ο Πιτσάι είπε πως οι κυβερνήσεις θα πρέπει να καταστρώσουν παγκόσμια ρυθμιστικά πλαίσια παράλληλα με την ανάπτυξη των συστημάτων AI.
Πριν περίπου δύο εβδομάδες, το ζήτημα των δυνητικών κινδύνων των Α.Ι. επανήλθε στη δημόσια σφαίρα, όταν περισσότεροι από 1.000 ερευνητές και ηγετικές μορφές του τεχνολογικού κλάδου, μεταξύ των οποίων ο Ελον Μασκ και ο συνιδρυτής της Apple Στιβ Βόνιακ, ζήτησαν εξάμηνη «παύση» στην ανάπτυξη μιας ισχυρής τεχνολογίας Α.Ι.. Σε δημόσια επιστολή τους, ανέφεραν η τεχνολογία αυτή θα μπορούσε να συνοδευτεί από «σοβαρότατους κινδύνους για την κοινωνία και την ανθρωπότητα».
Στη μητρική εταιρεία της Google, την Alphabet, ανήκει η εταιρεία τεχνητής νοημοσύνης DeepMind με έδρα το Ηνωμένο Βασίλειο. Η Google έχει ήδη λανσάρει ένα chatbot με τεχνητή νοημοσύνη, το Bard, επιχειρώντας να «απαντήσει» στο δημοφιλές ChatGPT και τη συμφωνία δισεκατομμυρίων της OpenAI με τη Microsoft.
Ο Πιτσάι υπογραμμίζει ότι η τεχνητή νοημοσύνη θα μπορούσε να προκαλέσει προβλήματα, λόγω των δυνατοτήτων για παραπληροφόρηση. «Με την τεχνητή νοημοσύνη θα είναι εφικτό να δημιουργηθεί εύκολα ένα βίντεο, όπου θα μπορούσε να φαίνεται ο Σκοτ (σ.σ Σκοτ Πέλεϊ, ο δημοσιογράφος του CBS που του πήρε τη συνέντευξη) να λέει κάτι, ή εγώ να λέω κάτι, που ποτέ δεν είπαμε. Και θα μπορούσε να είναι αληθοφανές. Σε κοινωνική κλίμακα μπορεί να προκαλέσει μεγάλη ζημιά». Ο επικεφαλής της Google υποστήριξε ότι η έκδοση της τεχνολογίας τεχνητής νοημοσύνης της που είναι τώρα διαθέσιμη στο κοινό, μέσω του chatbot Bard, είναι ασφαλής. Πρόσθεσε ότι η Google συμπεριφέρεται υπεύθυνα, και δεν λανσάρει στο κοινό προηγμένες εκδόσεις του Bard, προκειμένου να δοκιμαστούν.
Πριν λίγα 24ωρα, οι New York Times αποκάλυπταν πως η Google κυκλοφόρησε το Bard μετά από χρόνια εσωτερικών διαφωνιών σχετικά με το αν τα οφέλη των Α.Ι. υπερτερούσαν των κινδύνων. Το 2020, ο τεχνολογικός κολοσσός είχε ανακοινώσει και τη Meena, ένα παρόμοιο chatbot, αλλά εκείνο το σύστημα είχε κριθεί, τελικώς, πολύ επικίνδυνο για να κυκλοφορήσει, όπως δήλωσαν τρία άτομα με γνώση της υπόθεσης. Οι ανησυχίες αυτές αποκαλυφθεί νωρίτερα από την Wall Street Journal.
Σύμφωνα πάντα με τους NYT, η Google παρεμπόδισε δύο από τις κορυφαίες ερευνήτριές της σε ζητήματα ηθικής και τεχνητής νοημοσύνης, τις Τίνιτ Γκέμπρου και Μάργκαρετ Μίτσελ, από το να δημοσιεύσουν μια εργασία που προειδοποιούσε ότι τα μεγάλα γλωσσικά μοντέλα που χρησιμοποιούνται στα νέα συστήματα Α.Ι, θα μπορούσαν να εξαπολύσουν υβριστική γλώσσα. Τον Ιανουάριο του 2022, η Google προσπάθησε να αποτρέψει έναν άλλο ερευνητή, τον Δρ. Ελ Μαχντί, από το να δημοσιεύσει μια επικριτική μελέτη, σύμφωνα με τους NYT.
LifestyleΌλοι χειροκροτούν τον Λάκη Λαζόπουλο: Είπε με το «γάντι» όσα κανείς δεν τόλμησε για τη Ζήνα ΚουτσελίνηLifestyleΌλο το διαδίκτυο δάκρυσε με τον Βασίλη Χαραλαμπόπουλο: Αποχαιρέτισε τον Δημήτρη Ήμελλο με 3 φράσεις και συγκίνησε τους πάντες
Τώρα ο Πιτσάι παραδέχεται πως η Google δεν κατανοούσε απολύτως τον τρόπο με τον οποίο το δικό της σύστημα τεχνητής νοημοσύνης ανταποκρινόταν σε ορισμένες περιπτώσεις.«Υπάρχει μια πτυχή αυτού του φαινομένου την οποία, όλοι εμείς στον τομέα, την αποκαλούμε «μαύρο κουτί». Δεν το καταλαβαίνουμε πλήρως. Και δεν μπορούμε να πούμε ακριβώς γιατί είπε κάτι ή γιατί έκανε κάποιο λάθος».
Ερωτηθείς από τον δημοσιογράφο του CBS γιατί η Google κυκλοφόρησε το Bard, ενώ δεν κατανοούσε πλήρως πώς λειτουργεί, ο Πιτσάι απάντησε: «Επιτρέψτε μου να το θέσω έτσι. Δεν νομίζω ότι καταλαβαίνουμε πλήρως ούτε το πώς λειτουργεί το ανθρώπινο μυαλό». Ο Πιτσάι αναγνωρίζει ότι η κοινωνία δεν φαίνεται να είναι έτοιμη για τις ραγδαίες εξελίξεις στην τεχνητή νοημοσύνη. «Φαίνεται να υπάρχει αναντιστοιχία» μεταξύ του ρυθμού με τον οποίο η κοινωνία σκέφτεται και προσαρμόζεται στις αλλαγές σε σύγκριση με τον ρυθμό με τον οποίο εξελίσσεται η τεχνητή νοημοσύνη. Ωστόσο, πρόσθεσε ότι «τουλάχιστον οι άνθρωποι έχουν αρχίσει να αντιλαμβάνονται τους πιθανούς κινδύνους της πιο γρήγορα».
«Σε σύγκριση με οποιαδήποτε άλλη τεχνολογία, έχω δει περισσότερους ανθρώπους να ανησυχούν γι’ αυτήν νωρίτερα στον κύκλο ζωής της. Επομένως, αισθάνομαι αισιόδοξος». Ο Πιτσάι δήλωσε ότι ο οικονομικός αντίκτυπος της Τεχνητής Νοημοσύνης θα είναι σημαντικός και θα επηρεάσει τα πάντα. «Κάθε προϊόν σε κάθε εταιρεία». Αναφερόμενος, για παράδειγμα, στον κλάδο της ιατρικής, ο Πιτσάι είπε ότι σε πέντε έως 10 χρόνια από σήμερα, ένας ακτινολόγος θα μπορούσε να συνεργάζεται με έναν βοηθό Τεχνητής Νοημοσύνης, για την ιεράρχηση των περιστατικών. Ο ίδιος εκτιμά πως μεταξύ των επαγγελμάτων που θα επηρεαστούν είναι οι συγγραφείς, οι λογιστές, οι αρχιτέκτονες και οι προγραμματιστές.
Επομένως, πρόκειται για ένα πρόβλημα που όλοι ελπίζουμε πως θα λυθεί. Υπάρχουν εξάλλου αρμόδιοι επιστήμονες που έχουν ήδη αναλάβει χρέος για την επίλυσή του.
Περισσότερες Ειδήσεις σήμερα
Ρωσία: Ανησυχία για υπερβολική εξάρτηση από την τεχνολογία της Κίνας