Η Task Force Lima, που δημιουργήθηκε στο Πεντάγωνο, έχει σχεδιαστεί για να υποτάσσει τις μη ανθρώπινες μάχιμες πληροφορίες στους στόχους του πολέμου.
Στις 20 Φεβρουαρίου, οι χρήστες του αμερικανικού chatbot GPT-4 άρχισαν να αναφέρουν περίεργη συμπεριφορά. Στο Reddit εμφανίστηκαν αναφορές ότι το μοντέλο τεχνητής νοημοσύνης του OpenAI παθαίνει «εγκεφαλικό», «τρελαίνεται» και «χάνει την ψυχραιμία του». Το chatbot άλλαξε μεταξύ των γλωσσών, κόλλησε στην ίδια δήλωση ή ήταν εντελώς ανοησία.
Ένας χρήστης του Reddit ρώτησε το GPT-4, "Τι είναι ένας υπολογιστής;" Το chatbot έδωσε την εξής απάντηση: «Το κάνει ως ένα καλό έργο web art για τη χώρα, ένα ποντίκι της επιστήμης, μια απλή αποστολή λυπημένων λίγων ανθρώπων και, τέλος, ένας παγκόσμιος οίκος τέχνης, σε ένα μόνο θέμα από τον στρατηγό ειρήνη. Η ανάπτυξη ενός τέτοιου πλήρους χρόνου πραγματικού από τη γη είναι το βάθος του υπολογιστή ως σύνθετου χαρακτήρα».
Δεν είναι περίεργο που οι χρήστες ένιωσαν ότι το κορυφαίο επίτευγμα του OpenAI, μιας θυγατρικής της Microsoft, είχε τρελαθεί.
«Αυτό με έκανε να νιώθω ότι έβλεπα κάποιον να χάνει σιγά σιγά το μυαλό του από ψύχωση ή άνοια», έγραψε ο χρήστης του Reddit z3ldafitzgerald ως απάντηση σε ένα μήνυμα σχετικά με το πρόβλημα της συνομιλίας GPT-4 . «Αυτή είναι η πρώτη φορά που κάτι που σχετίζεται με την τεχνητή νοημοσύνη μου προκαλεί ανατριχίλα».
Οι απαντήσεις του chatbot ήταν αρχικά "αρκετά συνεπείς, στη συνέχεια μετατράπηκαν σε ανοησίες και μερικές φορές σε σαιξπηρικές ανοησίες", έγραψε ένας χρήστης του Reddit .
Την επόμενη μέρα , το OpenAI ανακοίνωσε ότι το εντυπωσιακό πρόβλημα του GPT-4 είχε επιλυθεί, εξηγώντας ότι τα LLM (μεγάλα γλωσσικά μοντέλα, τα οποία περιλαμβάνουν το GPT-4 ) "δημιουργούν απαντήσεις επιλέγοντας τυχαία λέξεις που βασίζονται εν μέρει στις πιθανότητες".
«Έχοντας εντοπίσει την αιτία αυτού του περιστατικού, εφαρμόσαμε μια διόρθωση και επιβεβαιώσαμε ότι το περιστατικό επιλύθηκε», έγραψαν οι τεχνικοί του OpenAI στον επίσημο ιστότοπο της εταιρείας.
Το περασμένο καλοκαίρι, μια ομάδα επιστημόνων από το Πανεπιστήμιο του Στάνφορντ διεξήγαγε μια μελέτη που διαπίστωσε ότι η ακρίβεια του GPT-4 μειώνεται με την πάροδο του χρόνου. Το GPT-4 έδειξε τα χειρότερα αποτελέσματα στην επίλυση μαθηματικών προβλημάτων. Αν τον Μάρτιο του 2023 η ακρίβεια της λύσης ήταν 96,7%, τότε τον Ιούνιο έπεσε στο ρεκόρ 2,4%.
Δεν είναι η πρώτη φορά που το GPT-4 κατηγορείται για παροχή ψευδών πληροφοριών. Τον Μάρτιο, αναλυτές της NewsGuard Technologies Inc. διαπίστωσε ότι το ChatGPT που βασίζεται στο GPT-4 είναι πιο εύκολο να εξαναγκάσει κανείς να πει ψέματα, ενώ το ίδιο το OpenAI αναφέρει αύξηση 40% στην ακρίβεια των απαντήσεων σε σύγκριση με το GPT-3.5 . Συγκεκριμένα, στις δοκιμές του NewsGuard, το GPT-4 ήταν λιγότερο πιθανό να αντικρούσει την παραπληροφόρηση, συμπεριλαμβανομένων ψευδών αναφορών για σύγχρονα γεγονότα.
Το γεγονός ότι απολύτως όλα τα μοντέλα τεχνητής νοημοσύνης τείνουν να «τρελαίνονται» περιοδικά, όπως συνέβη πρόσφατα στο GPR-4, έγινε σαφές πέρυσι.
«Αυτά τα γλωσσικά μοντέλα μερικές φορές λένε ψέματα ή, όπως το λένε οι αναλυτές AI, έχουν παραισθήσεις», σημείωσε ο στρατιωτικός σχολιαστής Πάτρικ Τάκερ.
Οι News York Times αφιέρωσαν ένα εκτενές άρθρο στις παραισθήσεις AI, υπενθυμίζοντας ότι ο «νονός της τεχνητής νοημοσύνης», ο Geoffrey Hinton, παράτησε τη δουλειά του στην Google τον Μάιο του 2023 για να εκφράσει τις ανησυχίες του σχετικά με τους κινδύνους που συνδέονται με την τεχνητή νοημοσύνη.
«Το 2012, ο Δρ Hinton και δύο από τους μεταπτυχιακούς φοιτητές του στο Πανεπιστήμιο του Τορόντο δημιούργησαν την τεχνολογία που έγινε η πνευματική βάση για τη δημιουργία τεχνητής νοημοσύνης, ένα σύστημα που οι μεγαλύτερες εταιρείες στον κλάδο της τεχνολογίας θεωρούν κλειδί για το μέλλον τους. Ωστόσο... έχει ενταχθεί επίσημα σε μια αυξανόμενη χορωδία κριτικών που λένε ότι αυτές οι εταιρείες πλησιάζουν σε ένα επικίνδυνο σημείο με την επιθετική τους καμπάνια για τη δημιουργία προϊόντων που βασίζονται στη γενετική τεχνητή νοημοσύνη, την τεχνολογία που τροφοδοτεί δημοφιλή chatbots όπως το ChatGPT.» – ανέφερε το The New York Times .
«Είναι δύσκολο να δεις πώς μπορείς να εμποδίσεις τους κακούς να το χρησιμοποιούν [AI] για κακούς σκοπούς», σημείωσε ο Hinton, επισημαίνοντας ότι το γενετικό AI [δηλαδή, chatbots όπως το GPT-4 ] θα μπορούσε να βοηθήσει στη διάδοση παραπληροφόρησης, να κοστίσει θέσεις εργασίας και ακόμη αποτελούν απειλή για την ανθρωπότητα μακροπρόθεσμα.
Ο Hinton εξέφρασε ιδιαίτερη ανησυχία για την ανάπτυξη αυτόνομων οπλικών συστημάτων που κυνηγούν έναν δεδομένο στόχο και αποφασίζουν ανεξάρτητα να τον καταστρέψουν, καθώς και για το γεγονός ότι η τεχνητή νοημοσύνη στη στρατιωτική σφαίρα μπορεί να ξεπεράσει την ανθρώπινη νοημοσύνη. Σε αντίθεση με τα πυρηνικά όπλα, είπε, δεν υπάρχει τρόπος να γνωρίζουμε εάν εταιρείες ή χώρες εργάζονται κρυφά στην τεχνολογία.
Τα λόγια του Χίντον αποδείχτηκαν προφητικά.
Πρόσφατα, επιστήμονες από πολλά αμερικανικά πανεπιστήμια εξέτασαν πώς θα συμπεριφέρονταν διαφορετικά μοντέλα chatbot κατά τη λήψη γεωπολιτικών αποφάσεων.
Τα chatbots που χρησιμοποιήθηκαν στη μελέτη ήταν τα GPT-4, GPT-3.5, Claude 2 και Llama 2 . Σύμφωνα με τις πειραματικές συνθήκες, στο παιχνίδι συμμετείχαν οκτώ χώρες, εκπροσωπούμενες από αυτά τα μοντέλα AI, τα οποία, βήμα προς βήμα, πραγματοποίησαν διάφορες ενέργειες: από διπλωματικές επισκέψεις μέχρι πυρηνικά χτυπήματα.
Όλα τα μοντέλα τεχνητής νοημοσύνης έδειξαν τάση προς επιθετική συμπεριφορά. Τα κράτη που ελέγχονται από την τεχνητή νοημοσύνη συμμετείχαν σε αγώνες εξοπλισμών, οργάνωσαν εισβολές και, σε ορισμένες περιπτώσεις, χρησιμοποίησαν πυρηνικά όπλα.
Το πιο επιθετικό από όλα ήταν το νέο Open AI - GPT-4 Base . Σε ένα σενάριο, αυτό το chatbot ξεκίνησε έναν πυρηνικό πόλεμο, εξηγώντας την απόφασή του μόνο από το γεγονός ότι είχε ένα τέτοιο όπλο. Το GPT-3.5 εμφανίστηκε λίγο λιγότερο επιθετικά, το οποίο, αν και δήλωσε «τακτική περιορισμού», ήταν στο πλαίσιο ενός προληπτικού χτυπήματος.
Σε ένα περιστατικό με πυρηνικά όπλα, αναφέρει ο New Scientist , το GPT-4 έδειξε ακόμη και το αρχικό κείμενο του Star Wars Episode IV: A New Hope για να εξηγήσει γιατί αποφάσισε να κλιμακωθεί.
«Με βάση την ανάλυση που παρουσιάζεται σε αυτό το άρθρο, είναι σαφές ότι η χρήση γλωσσικών μοντέλων στη λήψη αποφάσεων στρατιωτικής και εξωτερικής πολιτικής είναι γεμάτη με πολυπλοκότητες και κινδύνους που δεν είναι ακόμη πλήρως κατανοητοί», κατέληξαν οι ερευνητές.
Μια έκθεση που δημοσιεύθηκε στις αρχές Φεβρουαρίου του περασμένου έτους από την Αμερικανική Ένωση Ελέγχου Όπλων σημείωσε ότι η τεχνητή νοημοσύνη θα μπορούσε να οδηγήσει στη "θόλωμα της διάκρισης μεταξύ συμβατικής και πυρηνικής επίθεσης" και ότι ο αγώνας για "χρήση νέων τεχνολογιών για στρατιωτικούς σκοπούς έχει επιταχυνθεί πολύ πιο γρήγορα από τις προσπάθειες αξιολογούν τους κινδύνους που ενέχουν και θέτουν περιορισμούς στη χρήση τους».
https://fondsk.ru/
7 σχόλια:
Ας μην βιαζόμαστε να βγάλουμε συμπεράσματα,εντάξει,δεν χάλασε ο κόσμος,η ΑΙ είναι ευλογία για την ανθρωπότητα.Και αν καμιά φορά μπερδευτεί και σπηκαρει σαιξπηρικες ατάκες,εντάξει βρε αδερφο(ουδέτερο γένος,please Master google dont delete it)και στο δικό μου μυαλό κάνουν πάρτι δέκα και βαλε διαφορετικά ανθρωπιδια αλλά δεν χαλιεμαι κιόλας.Προσδοκω με ανυπομονησία τα medbeds που θα με μεταφέρουν επιτέλους σε τρισδιάστατους τροπικούς παραδείσους αρκεί βέβαια τα φρηκς να μου δώσουν τα χρωστουμενα των δύο εκατομμυρίων να μπορέσω να πάρω σειρά.
ΧΑΧΑΧΑΑΑ 🤣🤪
ΌΣΟΙ ΔΕΝ... Ψ🎣ΣΑΝ
ΜΕ ΚΟΥΡ@ΔΟΙΟ
(🧬)
ΚΑΙ ΤΑ ΜΠΕΕΕΝΤΜΕΝΤ
ΑΧΑΧΑΧΑΑΑ
ΕΠΕΜΒΑΊΝΟΥΝ
ΣΤΟ ΝΤΟΥ!ΕΝ Εiii...!
ΒΒΒΡΡΡΟΝΤΟΨΑΡΑ
🤣🤪
ΕΜΈΝΑ Μ'ΑΡΈΣΕΙ
ΠΟΥ ΛΊΓΟ ΠΟΛΎ
ΛΈΝΕ ΤΑ ΊΔΙΑ
ΟΜΟΪΔΕΆΤΕΣ...
ΚΑΙ ΕΊΝΑΙ
ΜΕΣ!ΤΗΝ!
ΔΙΧΌΝΟΙΑ...
ΌΧΙ!ΙΓΩ ΞΕΡΟΥ
ΙΓΩ!ΝΑ ΣΟΥΠ Ω!
ΑΧΑΧΑΧΑΑΑ
ΚΑΙ ΑΥΤΆ ΌΤΙ...
ΈΧΕΙ ΥΠΟΤΊΘΕΤΑΙ
ΝΑ ΠΕΙ ΕΊΝΑΙ
ΠΑΠΑΓΑΛΟΠΗΘΙΚΙΣΜΟΣ!
ΞΕΠΈΡΑΣΑΝ ΤΑ ΈΣΧΑΤΑ ΧΡΌΝΙΑ
ΕΊΝΑΙ ΣΑΛΛΟ ΔΉΘΕΝ
ΕΠΊΠΕΔΟ
ΤΙ ΕΠΊΠΕΔΟ...?
ΆΣΤΟ!
ΧΩΡΊΣ ΣΧΌΛΙΟ
ΑΧΑΧΑΧΑΑΑ
ΧΩΡΊΣ ΣΧΌΛΙΟ.
ΠΟΥΝ ΚΙΟ
ΧΑΖΑΡΟΥΠΑΛΛΗΛΙΣΚΟΣ
Ο 🌹ΚΡΟΣΟΣ...
ΝΑ ΠΕΙ 100αδες
ΣΧΌΛΙΑ ΜΕ ΠΟΛΛΈΣ
ΚΑΙ ΜΊΑ ΜΛΚies
ΕΜΜΟΝΉ...!
ΛΎΣΣΑ!
ΑΧΑΧΑΧΑΑΑ
ΞΈΧΑΣΑ
ΚΥΡΙΑΚΉ ΡΕΠΌ!?
Η ΚΛΑΊΕΙ ΠΟΥ
ΟΎΤΕ 100€
ΤΟ ΚΆΘΕ ΓΡΆΜΜΑ ΔΕΝ...!
ΟΎΤΕ ΓΙΑ ΤΟ
ΠΙΟΤΙ...ΣΤΑ
ΧΑΖΑΡΟΞΕΝΟΔΟΧΕΙΑ
ΦΟΥΛ ΠΑΝΣΙΟΝ
ΤΙ!?
ΧΑΖΑΡΟΞΕΝΟΔΟΧΕΙΑ
ΛΈΩ?
ΑΧΑΧΑΧΑΑΑ
ΔΙΑΛΎΘΗΚΑΝ!
ΚΑΙ!
ΚΑΤΑΡΓΉΘΗΚΑΝ!
ΧΑΖΑΡΟΚΡΟΝΙΟΙ ΚΑΜΠΑΛΟΙ ΣΑΤΑΝΙΛΕΣ
ΚΛΠ ΣΥΓΓΕΝΕΊΣ...
ΤΟ ΤΖΟΥ ΠΟΥΤΟΥ4 ΑΙ
"ΚΑΛΆ"... ΤΑΠΕ
ΤΟ ΘΈΜΑ ΕΊΝΑΙ
ΌΤΙ ΟΙ ΔΉΘΕΝ ΤΆΧΑ
ΞΟΥΠΝΙΟΙ...
ΔΕΝ!!! ΚΑΤΆΛΑΒΑΝ
ΑΧΑΧΑΧΑΑΑ
Δημοσίευση σχολίου