Tip of the Day

Πώς να αναγνωρίσετε ένα deepfake

Newsroom
13-03-2026 | 07:50
Viber Whatsapp
Μοιράσου το
Πώς να αναγνωρίσετε ένα deepfake

Οι εφαρμογές για τη δημιουργία ψεύτικων βίντεο και φωνητικών μηνυμάτων είναι πλέον προσβάσιμες σε όλους και πολλοί απατεώνες έχουν τελειοποιήσει την κατασκευή deepfakes. Κανείς δεν μπορεί να παραμείνει ασφαλής από τη συγκεκριμένη απειλή — τα σύγχρονα τεχνητά νευρωνικά δίκτυα είναι ικανά να κλωνοποιούν μια ανθρώπινη φωνή έχοντας στη διάθεσή τους μόλις τρία έως πέντε δευτερόλεπτα ήχου, καθώς και να δημιουργούν πολύ πειστικά βίντεο από ελάχιστες φωτογραφίες.

Η εταιρία κυβερνοασφάλειας Kaspersky μας εξηγεί πως να μπορούμε να διακρίνουμε τα deepfakes και να προστατευτούμε από αυτά.

Πώς δημιουργούνται τα deepfakes

Οι απατεώνες συλλέγουν υλικό για deepfakes από δημόσιες πηγές: διαδικτυακά σεμινάρια, δημόσια βίντεο σε κοινωνικά δίκτυα, κανάλια και online ομιλίες. Μερικές φορές καλούν τα πιθανά θύματα και τα κρατούν όσο περισσότερο μπορούν στη γραμμή για να συλλέξουν αρκετά δεδομένα και να πετύχουν την καλύτερη κλωνοποίηση της φωνής τους. Η παραβίαση του λογαριασμού κάποιου που στέλνει συχνά μηνύματα μέσω ηχητικών ή βίντεο είναι το «μεγάλο βραβείο» για τους απατεώνες. Με πρόσβαση σε τέτοια αρχεία μπορούν να δημιουργήσουν πολύ ρεαλιστικά ψεύτικα μηνύματα που το 95% των ανθρώπων δεν μπορεί να ξεχωρίσει από τα πραγματικά.

Πώς να αναγνωρίζετε τα deepfakes

Αν βλέπετε ένα γνώριμο πρόσωπο με την αντίστοιχη φωνή που σας είναι γνωστή αλλά σας κάνει περίεργες ή ασυνήθιστες ερωτήσεις, τότε υπάρχει πιθανότητα να πρόκειται για απάτη deepfake. Για καλή σας τύχη, υπάρχουν οπτικά, ακουστικά, αλλά και σημάδια στη συμπεριφορά των ατόμων που απεικονίζονται στα βίντεο, τα οποία μπορούν να σας βοηθήσουν να εντοπίσετε την απάτη.

Οπτικά σημάδια αναγνώρισης ενός deepfake

Προβλήματα στον φωτισμό και τις σκιές: Τα deepfakes συχνά αποτυπώνουν λάθος τη φυσική του φωτός. Η κατεύθυνση των σκιών μπορεί να μην ταιριάζει με το φως ή οι αντανακλάσεις στο δέρμα να φαίνονται αφύσικες. Για παράδειγμα, κάποιος μπορεί να είναι γυρισμένος προς το παράθυρο αλλά το πρόσωπό του να φωτίζεται σαν να βρίσκεται σε στούντιο. Η περίπτωση αυτή ίσως είναι γνώριμη για όσους συμμετέχουν σε τηλεδιασκέψεις, όπου οι εικόνες που τοποθετούνται ως background μπορεί να φαίνονται εξαιρετικά αφύσικες.

Θολά πρόσωπα ή χαρακτηριστικά που μετακινούνται: Δώστε προσοχή στη γραμμή των μαλλιών: τα deepfakes συχνά εμφανίζουν θόλωμα, τρεμόπαιγμα ή αφύσικες μεταβάσεις χρώματος σε αυτή την περιοχή. Αυτές οι παραμορφώσεις προκαλούνται από σφάλματα στον αλγόριθμο που τοποθετεί το κλωνοποιημένο πρόσωπο πάνω στο αρχικό.

Αφύσικο ανοιγοκλείσιμο των ματιών ή «νεκρό» βλέμμα: Ένας άνθρωπος ανοιγοκλείνει τα μάτια του κατά μέσο όρο 10 έως 20 φορές το λεπτό. Ορισμένα deepfakes το κάνουν πολύ σπάνια, ενώ άλλα υπερβολικά συχνά. Οι κινήσεις των βλεφάρων μπορεί να είναι πολύ απότομες και μερικές φορές το ανοιγοκλείσιμο δεν είναι συγχρονισμένο - το ένα μάτι μπορεί να μην ταιριάζει με το άλλο. Ένα «γυάλινο» ή «άδειο» βλέμμα είναι επίσης χαρακτηριστικό των deepfakes. Μερικές φορές η μια κόρη (συνήθως μόνο η μία) ενδέχεται να κινείται τυχαία λόγω σφάλματος του τεχνητού νευρωνικού δικτύου.

Όταν εξετάζετε μια στατική εικόνα, όπως μια φωτογραφία, είναι καλή ιδέα να κάνετε ζουμ στα μάτια και να συγκρίνετε τις αντανακλάσεις στις ίριδες — στις πραγματικές φωτογραφίες θα είναι ίδιες, ενώ στα deepfakes συχνά διαφέρουν.

Προβλήματα στον συγχρονισμό των χειλιών. Ακόμα και τα υψηλής ποιότητας deepfakes κάνουν λάθη στον συγχρονισμό της ομιλίας με τις κινήσεις των χειλιών. Μια καθυστέρηση μόλις 100 χιλιοστών του δευτερολέπτου είναι ορατή στον απλό θεατή. Συχνά μπορεί να εντοπίσετε και περίεργο σχήμα των χειλιών όταν προφέρονται τα γράμματα μ, φ ή τ. Όλα αυτά είναι ενδείξεις ότι το πρόσωπο που απεικονίζεται έχει δημιουργηθεί από τεχνητή νοημοσύνη.

Στατικό ή θολό φόντο. Στα βίντεο που έχουν δημιουργηθεί με τεχνητή νοημοσύνη, το φόντο συχνά φαίνεται μη ρεαλιστικό. Μπορεί να είναι υπερβολικά θολό, τα στοιχεία του να μην αλληλεπιδρούν με το πρόσωπο στην οθόνη ή να παραμένει ακίνητο ακόμη κι όταν κινείται η κάμερα.

Παράξενες εκφράσεις προσώπου. Τα deepfakes είναι δύσκολο να μιμηθούν συναισθήματα. Οι εκφράσεις μπορεί να μην αλλάζουν ανάλογα με τη συζήτηση, τα χαμόγελα να φαίνονται παγωμένα και οι μικρές ρυτίδες και πτυχώσεις που εμφανίζονται φυσικά στο πρόσωπο όταν εκφράζουμε συναισθήματα να απουσιάζουν – τα άτομα είναι σαν να έχουν κάνει botox.

Ακουστικά σημάδια αναγνώρισης ενός deepfake

Τα πρώτα συστήματα τεχνητής νοημοσύνης παρήγαγαν ομιλία από μικρούς, μονότονους ήχους φωνητικών μονάδων και όταν άλλαζε ο χρωματισμός της διατύπωσης υπήρχε εμφανής μεταβολή στον τόνο, κάτι που καθιστούσε εύκολο τον εντοπισμό μιας συνθετικής φωνής. Αν και η τεχνολογία έχει εξελιχθεί πολύ, εξακολουθούν να υπάρχουν σημάδια που προδίδουν τις τεχνητές φωνές.

Ξύλινος ή ηλεκτρονικός τόνος. Αν η φωνή ακούγεται ασυνήθιστα επίπεδη, χωρίς φυσικές αλλαγές στον τόνο ή έχει μια ελαφρώς ηλεκτρονική χροιά, υπάρχει μεγάλη πιθανότητα να πρόκειται για deepfake. Η πραγματική ανθρώπινη ομιλία έχει πολλές μικρές μεταβολές και φυσικές ατέλειες.

Απουσία ήχων αναπνοής. Οι άνθρωποι κάνουν μικρές παύσεις και αναπνέουν ανάμεσα στις φράσεις — ειδικά σε μεγάλες προτάσεις — ενώ μπορεί να υπάρχουν και μικρά βηξίματα ή ρουθουνίσματα. Οι συνθετικές φωνές συχνά δεν έχουν αυτές τις λεπτομέρειες ή τις τοποθετούν αφύσικα.

Ρομποτική ομιλία ή ξαφνικές διακοπές. Η φωνή μπορεί να κόβεται απότομα, οι λέξεις να ακούγονται σαν να είναι «κολλημένες» μεταξύ τους και η έμφαση ή ο τόνος να μην ταιριάζουν με αυτό που έχετε συνηθίσει να ακούτε από τον φίλο ή συνάδελφό σας.

Έλλειψη χαρακτηριστικών εκφράσεων στην ομιλία. Δώστε προσοχή σε χαρακτηριστικά στοιχεία της ομιλίας ενός ατόμου, όπως η προφορά ή συγκεκριμένες εκφράσεις που χρησιμοποιεί συχνά. Τα deepfakes συνήθως δεν τα μιμούνται σωστά ή τα παραλείπουν εντελώς.

Για να αποκρύψουν τα οπτικά και ακουστικά λάθη, οι απατεώνες συχνά προσποιούνται ότι υπάρχει κακή σύνδεση στέλνοντας βίντεο ή ηχητικά μηνύματα με θόρυβο. Ένα χαμηλής ποιότητας βίντεο ή αρχείο ήχου είναι το πρώτο προειδοποιητικό σημάδι ότι πρέπει να ελέγξετε την ταυτότητα του ατόμου.

Ενδείξεις στη συμπεριφορά για να αναγνωρίσετε ένα deepfake

Η παρατήρηση των κινήσεων και της συμπεριφοράς του ατόμου με το οποίο συνομιλείτε είναι ίσως ο πιο αξιόπιστος τρόπος για να εντοπίσετε ένα deepfake σε πραγματικό χρόνο.

Δεν μπορούν να γυρίσουν το κεφάλι. Κατά τη διάρκεια μιας βιντεοκλήσης, ζητήστε από το άτομο να γυρίσει το κεφάλι του ώστε να κοιτάξει εντελώς στο πλάι. Τα περισσότερα deepfakes δημιουργούνται από φωτογραφίες ή βίντεο πορτρέτου, οπότε μια τέτοια κίνηση μπορεί να προκαλέσει παραμόρφωση ή «σπάσιμο» της εικόνας. Η AI startup Metaphysic.ai — δημιουργός των viral deepfakes του Tom Cruise — επιβεβαιώνει ότι η περιστροφή του κεφαλιού είναι προς το παρόν το πιο αξιόπιστο τεστ για τον εντοπισμό deepfake.

Αφύσικες κινήσεις: Ζητήστε από το άτομο στην οθόνη να κάνει μια αυθόρμητη ενέργεια, όπως να κουνήσει το χέρι του μπροστά από το πρόσωπό του, να ξύσει τη μύτη του, να πιει από ένα ποτήρι, να καλύψει τα μάτια του με τα χέρια του, ή να δείξει κάτι μέσα στο δωμάτιο. Τα deepfakes δυσκολεύονται να εκτελέσουν τέτοιες αυθόρμητες κινήσεις — τα χέρια μπορεί να περνούν «σαν φαντάσματα» μέσα από αντικείμενα ή το πρόσωπό τους, τα δάχτυλα τους να παραμορφώνονται ή να κινούνται αφύσικα.

Αν ζητήσετε από ένα deepfake να κουνήσει το χέρι του μπροστά από το πρόσωπό του τότε το χέρι μπορεί να εξαφανιστεί.

Κοινή χρήση οθόνης: Αν η συζήτηση αφορά την εργασία σας, ζητήστε από τον συνομιλητή σας να μοιραστεί την οθόνη του και να δείξει κάποιο σχετικό αρχείο ή έγγραφο. Χωρίς πρόσβαση στη συσκευή του πραγματικού ατόμου, αυτό είναι σχεδόν αδύνατο να παραποιηθεί.

Δεν μπορούν να απαντήσουν δύσκολες ερωτήσεις: Κάντε μια ερώτηση που μόνο το πραγματικό άτομο θα μπορούσε να γνωρίζει. Για παράδειγμα: «Τι συνάντηση έχουμε αύριο στη δουλειά;», «Γιατί έχω αυτό το σημάδι;» ή «Πού πήγαμε διακοπές πριν από δύο χρόνια;». Ένας απατεώνας δεν θα μπορέσει να απαντήσει αν οι πληροφορίες δεν υπάρχουν σε χακαρισμένες συνομιλίες ή δημόσιες πηγές.

Δεν γνωρίζουν τον μυστικό κωδικό. Συμφωνήστε με φίλους και συγγενείς σε μια μυστική λέξη ή φράση για επείγουσες καταστάσεις επιβεβαίωσης ταυτότητας. Αν ένας πανικόβλητος συγγενής ζητήσει επειγόντως χρήματα, ζητήστε του τον οικογενειακό κωδικό. Το πραγματικό άτομο θα τον πει αμέσως - ένας απατεώνας που χρησιμοποιεί deepfake όχι.

Διαβάστε περισσότερα άρθρα της στήλης Tip of the Day

Ακολουθήστε το insider.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις από την Ελλάδα και τον κόσμο.

Όλες οι ειδήσεις

09:10

Οικονομολόγοι στο Bloomberg: Στον «πάγο» τα επιτόκια της ΕΚΤ για όλο το 2027

09:09

ΗΠΑ: «Στοχευμένη ενέργεια εναντίον της εβραϊκής κοινότητας» η επίθεση εναντίον συναγωγής στο Μίσιγκαν

09:02

Μεγαλώνει ο ανταγωνισμός στις θεραπείες της παχυσαρκίας

08:56

Γεωργιάδης: Αποκαλεί «Ραν ταν Πλαν» τον Ανδρουλάκη μετά τη διαγραφή Κωνσταντινόπουλου

08:45

Η Ιαπωνία θέλει να ενταχτεί στον «Χρυσό Θόλο» του Τραμπ

08:37

Οπαδικό επεισόδιο στην Θεσσαλονίκη: Νεκρός 20χρονος από επίθεση με μαχαίρι

08:32

Το γεν υποχωρεί στο χαμηλότερο επίπεδο από τον Ιούλιο του 2024

08:25

Τέσσερις νεκροί και 15 τραυματίες σε βομβαρδισμούς του Πακιστάν στο Αφγανιστάν

08:17

Οδυσσέας Κωνσταντινόπουλος: Παραδίδει την έδρα στο ΠΑΣΟΚ μετά τη διαγραφή του

08:12

Κάλας στους FT: «Οι ΗΠΑ προσπαθούν να διαιρέσουν την Ευρώπη»

08:06

Σεισμός 5,5 Ρίχτερ στην κεντρική Τουρκία - Σειρήνες στη βάση Ιντσιρλίκ

08:00

Οι 10 πλουσιότεροι ιδιοκτήτες ομάδων για το 2026

07:50

Πώς να αναγνωρίσετε ένα deepfake

07:42

Όμιλος Σαράντη: Σε πλήρη επαγρύπνηση για τις εξελίξεις στη Μέση Ανατολή - Τα επόμενα σχέδια

07:34

Zalando: Προτεραιότητα η ελληνική αγορά για τον online retailer από τη Γερμανία

07:30

Έρχεται η νέα κλαδική σύμβαση σε επισιτισμό, τουρισμό και αρτοποιεία - Τι θα προβλέπει

07:24

Προσωρινή άδεια για πώληση ρωσικού πετρελαίου από ΗΠΑ

07:20

Γιατί οι πετρελαϊκές επενδύουν σε έρευνες υδρογονανθράκων στην Ελλάδα

07:16

ΑΒΑΞ: Τι σχεδιάζει (και γιατί) στο real estate - Τα projects σε Αττική, Θεσσαλονίκη και νησιά

07:12

«Κατά κύματα» μέτρα στήριξης σχεδιάζει η κυβέρνηση - Τα επόμενα βήματα

07:08

Τραμπ για Ιράν: «Δείτε τι θα συμβεί σήμερα σε αυτούς τους αλήτες» - Αεροσκάφος των ΗΠΑ συνετρίβη στο Ιράκ

07:04

Ισχυρή παράσταση νίκης στη ΝΔ δίνει η Real Polls - Φουλ εσωστρέφεια με διαγραφή Οδυσσέα ξαφνικά ο Ανδρουλάκης

07:00

Οι επενδυτές επιμένουν τράπεζες - Η αγορά διάβασε Moody's - Το Commercial Hub και ο ΝΟΚ

23:55

Ιράν: Η χώρα δεν θέλει πλέον να της επιβάλουν τον πόλεμο

23:45

Frontex: Ο αριθμός των παράτυπων εισόδων στην ΕΕ μειώθηκε 52% το πρώτο δίμηνο

23:30

Κατάρ: Το εργατικό δυναμικό στο κοίτασμα φυσικού αερίου North Field έχει μειωθεί κατά το ήμισυ

23:14

Μπέσεντ: Κανένα τίμημα δεν θα έκανε τον πόλεμο του Ιράν οικονομικά ασύμφορο

23:00

Βραζιλία: Ο Λούλα ανακοίνωσε μέτρα για να αντιμετωπιστεί η αύξηση στα καύσιμα

22:49

Μερτς: Δεν υπάρχουν προς το παρόν ενδείξεις για αυξημένο κίνδυνο επιθέσεων στο εσωτερικό

22:42

Τσιάρας από την Agrotica 2026: Η στήριξη του πρωτογενούς τομέα αποτελεί πολιτική μας επιλογή