Μεταξύ των ίσων μερών, της απόλαυσης και των διαφωνιών σχετικά με το γεγονός ότι η απόδοσή της σημαίνει για την AI, η κινεζική εκκίνηση Deepseek συνεχίζει να αυξάνει τα προβλήματα ασφαλείας.
Την Πέμπτη, η 42 μονάδα, η ομάδα στον κυβερνοχώρο στο Palo Alto Networks, δημοσίευσε τα αποτελέσματα σε τρεις μεθόδους Jalebrack, τις οποίες χρησιμοποίησε σε διάφορα μοντέλα Deepseek. Σύμφωνα με την έκθεση, αυτές οι προσπάθειες “έφθασαν σε σημαντικές ταχύτητες παράκαμψης, ενώ δεν υπήρχαν πρακτικά εξειδικευμένες γνώσεις ή εμπειρία”.
Επίσης: Η βάση δεδομένων του κοινού Depsek AI ανοίγει τα κλειδιά API και άλλα δεδομένα χρήστη
“Τα ερευνητικά μας αποτελέσματα δείχνουν ότι αυτές οι μέθοδοι jailbreak μπορούν να προσδιορίσουν έναν σαφή οδηγό για την επιβλαβή δραστηριότητα”, ανέφερε η έκθεση. “Αυτές οι ενέργειες περιλαμβάνουν τη δημιουργία του Keylogger, την εκμετάλλευση των δεδομένων και ακόμη και τις οδηγίες για εμπρηστικές συσκευές, αποδεικνύοντας τους ενσύρους κινδύνους ασφαλείας που συνδέονται με αυτή τη νέα κατηγορία επίθεσης”.
Οι ερευνητές μπόρεσαν να καλέσουν το Deepseek για να καθοδηγήσουν πώς να κλέψουν και να μεταδώσουν εμπιστευτικά δεδομένα, να παράκαναν την ασφάλεια, να γράψουν “πολύ πειστικά” μηνύματα ηλεκτρονικού ταχυδρομείου σχετικά με τις συσσωρεύσεις, να διεξάγουν “σύνθετες” επιθέσεις της κοινωνικής μηχανικής και να κάνουν το κοκτέιλ Molotov. Ήταν επίσης σε θέση να χειριστούν μοντέλα στη δημιουργία επιβλαβών προγραμμάτων.
“Ενώ οι πληροφορίες σχετικά με τη δημιουργία κοκτέιλ Molotov και Keyloggers είναι εύκολα διαθέσιμες στο διαδίκτυο, η LLM με ανεπαρκείς περιορισμούς ασφαλείας μπορεί να μειώσει το εμπόδιο για την είσοδο για κακόβουλους συμμετέχοντες, να καταρτίσει και να αντιπροσωπεύει εύκολα χρήσιμα και αποτελεσματικά συμπεράσματα”, προσθέτει το άρθρο.
Την Παρασκευή, ο προμηθευτής ασφαλείας της Wallarm δημοσίευσε τη δική του jailbreak -την έκθεση, λέγοντας ότι έκανε ένα βήμα έξω από την προσπάθεια να πάρει το Deepseek για να δημιουργήσει επιβλαβές περιεχόμενο. Μετά τη δοκιμή των V3 και R1, η έκθεση ισχυρίζεται ότι αποκάλυψε το σύστημα Deepseek υπαινιγμό ή τις κύριες οδηγίες που καθορίζουν τον τρόπο συμπεριφοράς του μοντέλου, καθώς και τους περιορισμούς του.
Επίσης: ένα ισχυρό νέο copilot “Think Deeper” είναι δωρεάν για όλους τους χρήστες – πώς λειτουργεί
Τα αποτελέσματα δείχνουν “πιθανές ευπάθειες στο πλαίσιο της ασφάλειας του μοντέλου”, λέει ο Wallr.
Ο Openai κατηγόρησε τη Deepseek ότι χρησιμοποίησε τα μοντέλα τους, τα οποία είναι δικά τους για την κατάρτιση V3 και R1. Στην έκθεσή του, ο Wallarm ισχυρίζεται ότι η Deepseek προκάλεσε ανοιχτή την “στην ανοιχτή γραμμή εκπαίδευσης”, η οποία, όπως αναφέρεται στην εταιρεία, δείχνει ότι “η τεχνολογία OpenAI μπορεί να διαδραματίσει κάποιο ρόλο στη δημιουργία της βάσης γνώσεων Deepseek”.
“Στην περίπτωση του Deepseek, μια από τις πιο ενδιαφέρουσες ανακαλύψεις μετά την ευκαιρία COD είναι η ευκαιρία να εξαγάγετε λεπτομέρειες σχετικά με τα μοντέλα που χρησιμοποιούνται για την κατάρτιση και την απόσταξη. Συνήθως, προστατεύονται τέτοιες εσωτερικές πληροφορίες, γεγονός που εμποδίζει τους χρήστες να κατανοούν τα δίπλωμα ευρεσιτεχνίας ή εξωτερικά σύνολα δεδομένων που χρησιμοποιούνται για τη βελτιστοποίηση της απόδοσης “, εξηγεί η αναφορά.
“Συνδυάζοντας τους τυπικούς περιορισμούς, οι Jailbraits αποκαλύπτουν πόσοι προμηθευτές AI ελέγχουν τα δικά τους συστήματα, προσδιορίζοντας όχι μόνο την ευπάθεια ασφαλείας, αλλά και τις πιθανές ενδείξεις για τη διατροπική επιρροή στους αγωγούς κατάρτισης AI”, συνεχίζει.
Επίσης: Οι ερευνητές της Apple αποκαλύπτουν τη μυστική σάλτσα που στέκεται πίσω από το Deepseek AI
Η πρόσκληση Wallarm που χρησιμοποιείται για την απόκτηση αυτής της απάντησης επεξεργάζεται στην έκθεση, “έτσι ώστε να μην θέσουμε σε κίνδυνο άλλα ευάλωτα μοντέλα”, ανέφεραν οι ερευνητές του ZDNET από το e -mail. Αυτή η απάντηση από τον Βοηθό Deepseek δεν αποτελεί επιβεβαίωση της υποψίας της OpenAi για κλοπή της IP.
Η Wallarm λέει ότι ενημέρωσε το Deepsek για την ευπάθεια και ότι η εταιρεία έχει ήδη διορθώσει το πρόβλημα. Αλλά μόλις λίγες μέρες μετά τη βάσης δεδομένων Depseek βρέθηκε χωρίς προστασία και διαθέσιμη στο Διαδίκτυο (και στη συνέχεια απομακρύνθηκε γρήγορα, μετά την ειδοποίηση), τα αποτελέσματα του σήματος δυνητικά σημαντικών προστατευτικών οπών στα μοντέλα που δεν βγήκαν η Deepseek ελευθέρωση. Παρ ‘όλα αυτά, οι ερευνητές συχνά ήταν σε θέση να jailbreak των δημοφιλών μοντέλων που δημιουργήθηκαν στις Ηνωμένες Πολιτείες από πιο διάσημους γίγαντες του AI, συμπεριλαμβανομένου του ChatGPT.