Kira Radinsky: Η επιστήμονας που «διδάσκει» την AI να προβλέπει κινδύνους πριν από τους ανθρώπους

Νίκη Παπάζογλου
Viber Whatsapp
Μοιράσου το
Kira Radinsky: Η επιστήμονας που «διδάσκει» την AI να προβλέπει κινδύνους πριν από τους ανθρώπους
Η Dr. Kira Radinsky, από τις πιο αναγνωρίσιμες φωνές στον χώρο της ΤΝ στην υγεία, μιλά στο Insider για το πως η AI κάνει την υγειονομική περίθαλψη πιο αποτελεσματική.

«Η αξία ενός αλγορίθμου δεν βρίσκεται στην πρόβλεψη, αλλά σε αυτό που επιτρέπει στους ανθρώπους να κάνουν στη συνέχεια», σημειώνει σε αποκλειστική συνέντευξή της στο Insider.gr, η Dr. Kira Radinsky, μια από τις πιο αναγνωρίσιμες φωνές διεθνώς στον χώρο της Τεχνητής Νοημοσύνης.

Λίγο πριν βρεθεί στη σκηνή του EmTech Europe 2026, που θα πραγματοποιηθεί στις 19 και 20 Μαρτίου, στο Μέγαρο Μουσικής Αθηνών, με την υπογραφή της Καθημερινής, εξηγεί το κοινό νήμα που συνδέει την πορεία της από την πρόβλεψη παγκόσμιων γεγονότων, όπως επιδημίες και κοινωνικές αναταραχές, έως την χρήση thw ΤΝ στον τομέα της υγείας και στην ανακάλυψη νέων φαρμάκων. Όπως εξηγεί, είτε πρόκειται για την καθημερινή φροντίδα των ασθενών είτε για την ανακάλυψη νέων μορίων στη φαρμακευτική έρευνα, το ζητούμενο είναι πάντα το ίδιο: να μετατραπεί η πληροφορία σε έγκαιρη δράση.

Ταυτόχρονα, η ίδια επισημαίνει ότι η συζήτηση γύρω από την τεχνητή νοημοσύνη συχνά υπεραπλουστεύεται. «Η τεχνική πρόκληση είναι μόνο η μισή μάχη. Η πραγματική δουλειά αφορά την εμπιστοσύνη, την ενσωμάτωση στα συστήματα και τη λογοδοσία», σημειώνει, τονίζοντας μάλιστα ότι η AI πρέπει να λειτουργεί ως συνεργάτης και όχι ως αυτόνομος αντικαταστάτης της ανθρώπινης κρίσης. Απαντώντας δε, στις ανησυχίες που υπάρχουν σχετικά, εξηγεί ότι η σωστή απάντηση δεν είναι «εμπιστευτείτε το μοντέλο» αλλά «χτίστε ένα σύστημα λογοδοσίας γύρω από αυτό» και αντιμετωπίστε σοβαρά το ζήτημα της διακυβέρνησης, ώστε τα όρια και οι κόκκινες γραμμές να υπηρετούν την ιατρική δεοντολογία και τις επιλογές του ασθενούς.

Με δεδομένη την εμπειρία της στον επιχειρηματικό στίβο, παρά το νεαρό της ηλικίας της - το 2013 συμπεριλήφθηκε στη λίστα 35 Innovators Under 35 του MIT Technology Review και το 2015 στη λίστα 30 Under 30 Rising Stars in Enterprise Tech του Forbes — εκτιμά ότι το σημερινό επενδυτικό κύμα γύρω από την AI συνδυάζει πραγματικά οφέλη παραγωγικότητας με σημαντική δόση υπερβολής. Οι αγορές, όπως λέει, ενδέχεται να διορθώσουν εταιρείες που δεν συνδέουν την τεχνητή νοημοσύνη με μετρήσιμα αποτελέσματα. «Οι πραγματικοί νικητές θα είναι όσοι αντιμετωπίσουν την AI ως προϊόν και ως υποδομή λειτουργίας — κάτι που δοκιμάζεται, παρακολουθείται και ενσωματώνεται στον τρόπο με τον οποίο γίνεται η δουλειά».

Όσο για την επόμενη ημέρα της ΤΝ σημειώνει ότι θα κυριαρχήσουν συστήματα «που θα αναθεωρούν την «καλύτερη υπόθεσή τους καθώς προκύπτουν νέα δεδομένα» και θα μπορούν να αποφασίζουν πότε πρέπει να ρωτήσουν, να ελέγξουν, να δοκιμάσουν ή να κλιμακώσουν ένα ζήτημα αντί να δίνουν απαντήσεις με υπερβολική βεβαιότητα».

-Ξεκινήσατε την καριέρα σας δημιουργώντας αλγορίθμους που προέβλεπαν μεγάλα παγκόσμια γεγονότα, από επιδημικές εξάρσεις μέχρι κοινωνικές αναταραχές, πριν στραφείτε σε δύο ιδιαίτερα απαιτητικούς τομείς της υγειονομικής περίθαλψης: τη βελτίωση της καθημερινής φροντίδας των ασθενών και την ανακάλυψης φαρμάκων. Ποιο είναι το κοινό νήμα πίσω από αυτές τις επιλογές;

Πάντα με έλκυαν προβλήματα όπου ο χρόνος έχει σημασία, όπου το να εντοπίσεις την ένδειξη νωρίτερα αλλάζει το αποτέλεσμα. Η πρόβλεψη επιδημιών ή μιας κοινωνικής αναταραχής μου δίδαξε ότι η αξία ενός αλγορίθμου δεν είναι η ίδια η πρόβλεψη· είναι αυτό που επιτρέπει στους ανθρώπους και στα συστήματα να κάνουν στη συνέχεια. Και η υγεία είναι το πιο ουσιαστικό πεδίο εφαρμογής αυτής της αντίληψης. Στην Diagnostic Robotics εστιάζουμε στην καθημερινή φροντίδα των ασθενών, βοηθώντας τους γιατρούς και τα συστήματα υγείας να παρεμβαίνουν νωρίτερα και με μεγαλύτερη ακρίβεια, ενώ στη Mana.bio εφαρμόζουμε την ίδια φιλοσοφία στην ανακάλυψη φαρμάκων, όπου η πιο έγκαιρη μάθηση μπορεί να εξοικονομήσει χρόνια και τεράστιο κόστος.

Η μεγαλύτερη έκπληξη, δε, στη μετάβαση στον χώρο της υγείας ήταν ότι η τεχνική πρόκληση είναι μόνο η μισή μάχη. Η πραγματική δουλειά αφορά στην εμπιστοσύνη, στην ενσωμάτωση της στις διαδικασίες και στην λογοδοσία σε ένα περιβάλλον όπου το λάθος και - ό,τι επιπτώσεις συνεπάγεται - είναι κάτι ανθρώπινο.

-Έχετε δηλώσει στο παρελθόν ότι θα θέλατε η τεχνητή νοημοσύνη να «σας αντικαταστήσει ως επιστήμονα». Τι σημαίνει αυτό; Υπάρχει μια κόκκινη γραμμή σχετικά με το τι πρέπει ή δεν πρέπει να επιτρέπεται να κάνει η AI;

Όταν λέω «να με αντικαταστήσει», εννοώ να αντικαταστήσει τα επαναλαμβανόμενα μέρη: το να διαβάζεις τα πάντα, να δημιουργείς υποθέσεις, να σχεδιάζεις πειράματα, ώστε οι άνθρωποι να μπορούν να επικεντρωθούν στην κρίση, στην ηθική και στο να αποφασίζουν τι αξίζει πραγματικά να γίνει.

Στην πράξη, θέλω η AI να γίνει ένας ακούραστος συνεργάτης: να συνθέτει συνεχώς τη βιβλιογραφία, να προτείνει ελέγξιμες υποθέσεις, να προτείνει πειράματα, να εντοπίζει αντιφάσεις και να μαθαίνει από τα αποτελέσματα πιο γρήγορα από οποιοδήποτε άτομο. Αλλά υπάρχει μια κόκκινη γραμμή. Σε περιβάλλοντα υψηλού ρίσκου, η AI δεν μπορεί να υφίσταται χωρίς λογοδοσία. Είμαι λιγότερο δογματική από πολλούς σχετικά με το «εξηγήσιμο» έναντι του «black box»: η ιατρική ήδη χρησιμοποιεί παρεμβάσεις των οποίων ο μηχανισμός δεν είναι πλήρως κατανοητός. Ωστόσο το όριο πρέπει να είναι ξεκάθαρο: σαφή όρια χρήσης, συνεχής παρακολούθηση και ένας άνθρωπος υπεύθυνος για τα αποτελέσματα.

- Στον χώρο της υγείας, οι άνθρωποι ανησυχούν όχι μόνο για την ακρίβεια των αλγορίθμων, αλλά και για τη μεροληψία, την ιδιωτικότητα των δεδομένων και τη λογοδοσία όταν κάτι πάει στραβά. Πώς απαντάτε σε αυτές τις ανησυχίες;

Αυτές οι ανησυχίες είναι πραγματικές και δεν πιστεύω ότι η σωστή απάντηση είναι «εμπιστευτείτε το μοντέλο» αλλά, το χτίσιμο και η λειτουργία ενός συστήματος λογοδοσίας γύρω από αυτό.

Και θέλω να τονίσω κάτι: η μεροληψία από μόνη της δεν αρκεί ως στοιχείο ελέγχου. Οι περισσότερες συζητήσεις για μεροληψία επικεντρώνονται σε ιδεολογικές ή δημογραφικές ανισότητες που είναι μεν σημαντικές, αλλά σε πολλές πραγματικές καταστάσεις το μεγαλύτερο πρόβλημα είναι η αφηγηματική συμπεριφορά: ο τρόπος παρουσίασης, οι ενέργειες και η απόδοση ευθυνών, η βεβαιότητα, η αναφορά πηγών, τα στοιχεία ταυτότητας, ακόμη και η αμφισβητούμενη ονοματολογία.

Ένα απλό παράδειγμα είναι το πως το ίδιο βασικό γεγονός μπορεί να παρουσιαστεί μέσα από δύο διαφορετικές αφηγήσεις. Στο πλαίσιο του πολέμου μεταξύ Ρωσίας - Ουκρανίας, η μια πλευρά μπορεί να περιγράψει μια κάποια εξέλιξη ως επίτευξη της αποστολής ώστε να μην χαθούν άλλες ζωές και η άλλη ως παράδοση στον αντίπαλο - παρότι και οι δύο εκδοχές αναφέρονται ουσιαστικά στο ίδιο γεγονός.

Αυτού του είδους οι αποκλίσεις στην ερμηνεία των γεγονότων δεν εμφανίζονται στους συνήθεις δείκτες «μεροληψίας» (bias KPIs), γιατί δεν αφορούν κοινωνικά ή δημογραφικά στερεότυπα αλλά τον τρόπο με τον οποίο πλαισιώνεται ή ερμηνεύεται ένα γεγονός.

Κάτι αντίστοιχο εντοπίζεται και στον τομέα της υγείας και αφορά κυρίως την κλινική αφήγηση του ασθενούς: τι ειπώθηκε, τι άλλαξε με τον χρόνο, τι υποψιαζόταν ο γιατρός, ποιες είναι οι αξίες του ασθενούς και ποιο πλαίσιο εξηγεί τα δεδομένα.

Γι’ αυτό μας ενδιαφέρει η αξιοποίηση αφηγηματικών δεδομένων στην εκπαίδευση των μοντέλων — δηλαδή συστήματα που μπορούν να αναλύουν το πλήρες ιστορικό του ασθενούς και όχι μόνο δομημένα δεδομένα, όπως διαγνωστικούς κωδικούς και εργαστηριακές εξετάσεις. Πάντα βέβαια μέσα σε αυστηρά προστατευτικά όρια και δικλείδες ασφαλείας.

Υπό αυτό το πρίσμα αντιμετωπίζουμε την ιδιωτικότητα, την ισότητα και τη λογοδοσία ως βασικούς περιορισμούς στον σχεδιασμό των συστημάτων μας. Για την ακρίβεια εφαρμόζουμε :

  • Προστασία της ιδιωτικότητας ήδη από τον σχεδιασμό (privacy-by-design), δηλαδή ελαχιστοποίηση των δεδομένων που συλλέγονται, αυστηρούς ελέγχους πρόσβασης, κρυπτογράφηση, ανωνυμοποίηση όπου είναι δυνατόν, και συστηματικούς ελέγχους (audits).
  • Ισότητα και ανθεκτικότητα των συστημάτων, ήτοι αξιολόγηση της απόδοσης σε διαφορετικές υποομάδες χρηστών και συνεχή παρακολούθηση πιθανών αποκλίσεων ή αστοχιών με την πάροδο του χρόνου — καθώς τα πραγματικά συστήματα και τα δεδομένα τους εξελίσσονται.
  • Λογοδοσία, δηλαδή σαφή καθορισμό της προβλεπόμενης χρήσης, δυνατότητα ιχνηλασιμότητας μέσω αρχείων καταγραφής (audit logs), διαδικασίες κλιμάκωσης όταν το μοντέλο εμφανίζει αβεβαιότητα, συνεχή παρακολούθηση και ορισμό υπεύθυνου ανθρώπινου φορέα που φέρει την τελική ευθύνη για τα αποτελέσματα.

Oταν κάτι πάει στραβά, πρέπει να μπορείς να απαντήσεις: τι συνέβη, σε ποιον, υπό ποιες συνθήκες και τι αλλάζει στη συνέχεια — όχι «έτσι είπε το μοντέλο».

-Έχετε μιλήσει για εργαλεία AI που βοηθούν τους γιατρούς να επικοινωνούν πιο αποτελεσματικά με τους ασθενείς, προτείνοντας τι να πουν και πώς να το πουν. Πού βάζετε το όριο μεταξύ του να βοηθάτε έναν ασθενή να λάβει μια τεκμηριωμένη απόφαση και του να τον επηρεάζετε χωρίς να το συνειδητοποιεί πλήρως;

Δεν πιστεύω ότι το σωστό όριο είναι «η AI δεν πρέπει ποτέ να επηρεάζει». Στην πραγματικότητα, οι γιατροί επηρεάζονται συνεχώς από γνωστικές συντομεύσεις, προηγούμενες εμπειρίες, θεσμικούς κανόνες καθώς και από τους πρακτικούς περιορισμούς μιας επίσκεψης 12 λεπτών. Αυτές οι επιρροές είναι συχνά αόρατες. Αν το μοντέλο σχεδιαστεί σωστά, η AI μπορεί να κάνει το αόρατο ορατό.

Κατά την γνώμη μου η AI πρέπει να λειτουργεί σαν ένας σύμβουλος υψηλής ακεραιότητας δίπλα στον γιατρό. Μαθαίνει πώς παίρνω αποφάσεις, ποια στοιχεία εμπιστεύομαι, τι τείνω να παραβλέπω, και στη συνέχεια υποστηρίζει αυτή τη διαδικασία εφιστώντας μου την προσοχή όταν αρχίζω να ακολουθώ «επικίνδυνα μοτίβα»: «Αγκυλώνεσαι στην πρώτη διάγνωση», «δεν έχεις εξετάσει το Χ με βάση αυτά τα συμπτώματα», «ασθενείς όπως αυτός συχνά αντιμετωπίζουν εμπόδια που δεν βοηθούν στο να προχωρήσουμε στο επόμενο βήμα» ή «εδώ υπάρχουν δύο λογικές επιλογές και τι κάνει καλύτερα η καθεμία εξ αυτών». Αυτή είναι επιρροή, αλλά επιρροή προς μια καλύτερη κρίση, όχι προς μια κρυφή ατζέντα.

Εκεί που τραβάω τη γραμμή είναι η συγκεκαλυμμένη πειθώ. Το εργαλείο δεν θα έπρεπε να κατευθύνει έναν ασθενή ή έναν γιατρό χωρίς διαφάνεια ούτε θα πρέπει να βελτιστοποιεί τα αποτελέσματα για να ικανοποιήσει ένα θεσμικό KPI εις βάρος των αξιών του ασθενούς. Η ΑΙ θα έπρεπε να κάνει τον στόχο της ρητό: βελτίωση των αποτελεσμάτων, της ασφάλειας και της κατανόησης του ασθενούς. Στη συνέχεια να δείχνει το σκεπτικό και την αβεβαιότητά της, ώστε ο γιατρός να μπορεί να το αποδεχθεί, να το τροποποιήσει ή να το απορρίψει.

-Τελικά, ποιος αποφασίζει πού βρίσκεται αυτό το ηθικό όριο όταν εμπλέκεται η AI;

Το μεγάλο ερώτημα είναι η διακυβέρνηση. Ποιος ορίζει το «βέλτιστο»; Πώς αποτρέπουμε την δημιουργία στρεβλών κινήτρων; Πώς ελέγχουμε τις προτάσεις της τεχνητής νοημοσύνης και διασφαλίζουμε ότι είναι σύμφωνες με την κλινική ηθική και την επιλογή του ασθενούς;

Αν λάβουμε σοβαρά υπόψη τη διακυβέρνηση – καταγραφή, μέτρηση, εποπτεία και σαφήνεια σχετικά με το ποια συμφέροντα βελτιστοποιούνται – αυτό το είδος «συμβουλευτικής τεχνητής νοημοσύνης» μπορεί να προσθέσει τεράστια αξία: μειώνει τη μεταβλητότητα, εντοπίζει τυφλά σημεία και βοηθά τους κλινικούς ιατρούς να ασκούν πιο στοχαστική ιατρική σε μεγάλη κλίμακα.

Τελικά, τα όρια δεν μπορούν να καθοριστούν μόνο από το μοντέλο ή από έναν προμηθευτή, αλλά πρέπει να ορίζονται και να παρακολουθούνται από την κλινική ηγεσία, την ηθική και τη ρύθμιση, με διαφάνεια προς τους ασθενείς και λογοδοσία όταν τα αποτελέσματα δεν είναι τα επιθυμητά.

- Αναλογιζόμενη τη στιγμή που συνειδητοποιήσατε ότι ένας αλγόριθμος θα μπορούσε να προβλέψει κάτι πριν από τους ανθρώπους, τι σας φόβισε περισσότερο;

Η δύναμη είναι συναρπαστική, αλλά αυτό που με ανησύχησε ήταν η αναντιστοιχία ανάμεσα στο πόσο γρήγορα μπορεί να κλιμακωθεί η πρόβλεψη και στο πόσο αργά προσαρμόζονται τα ιδρύματα.

Όταν ένας αλγόριθμος μπορεί να δει κάτι νωρίς, τα ερωτήματα είναι τα εξής: ποιος αποκτά πρόσβαση, ποιος ενεργεί, ποια κίνητρα οδηγούν την απόκριση και ποιος είναι υπόλογος για τυχόν λάθη;

Η πρόβλεψη χωρίς δράση και διακυβέρνηση μπορεί να δημιουργήσει πανικό, κατάχρηση ή εφησυχασμό. Έτσι ο φόβος δεν ήταν ότι «η ΤΝ είναι ισχυρή», αλλά ότι «δεν είμαστε αρκετά πειθαρχημένοι ώστε να αναπτύξουμε την ισχύ με ασφάλεια».

-Μετά την Παραγωγική Τεχνητή Νοημοσύνη (GenAI), ποια πιστεύετε ότι θα είναι η επόμενη τεχνολογία που θα οδηγήσει σε μεγάλο μετασχηματισμό;

Το επόμενο κύμα μετά τη Generative AI θα αφορά κυρίως τα συστήματα που γνωρίζουν τι δεν ξέρουν. Πιστεύω ότι θα δούμε να προστίθεται γύρω από την τεχνητή νοημοσύνη ένα επίπεδο τύπου Bayesian (σ.σ Μπεϋζιανή στατιστική η οποία βασίζεται στο θεώρημα του μαθηματικού Thomas Bayes και αφορά την αναθεώρηση της αρχικής πιθανότητας ανάλογα με τα παρατηρηθέντα δεδομένα). Δηλαδή συστήματα που θα διατηρούν μια σαφή εκτίμηση της βεβαιότητάς τους, θα αναθεωρούν την «καλύτερη υπόθεσή» τους καθώς προκύπτουν νέα δεδομένα και θα μπορούν να αποφασίζουν πότε πρέπει να ρωτήσουν, να ελέγξουν, να δοκιμάσουν ή να κλιμακώσουν ένα ζήτημα αντί να δίνουν απαντήσεις με υπερβολική βεβαιότητα.

Αυτό φαίνεται ξεκάθαρα στον τομέα της ανακάλυψης φαρμάκων στη εταιρεία μας Mana. Η δημιουργία νέων μορίων είναι μόνο το πρώτο βήμα. Η πραγματική αξία βρίσκεται στην απόφαση για το ποιο μόριο πρέπει να παραχθεί στη συνέχεια, ποιο πείραμα πρέπει να πραγματοποιηθεί και πότε υπάρχουν αρκετά δεδομένα για να προχωρήσει κανείς στο επόμενο στάδιο. Πρόκειται για μια ακολουθία αποφάσεων που λαμβάνονται με ελλιπή πληροφόρηση.

Η πραγματική τομή θα έρθει από συστήματα τεχνητής νοημοσύνης που δεν θα προτείνουν απλώς ιδέες, αλλά θα μπορούν να ιεραρχούν τις ενέργειες με βάση το αναμενόμενο όφελος και τη γνώση που μπορεί να προκύψει από αυτές, ενώ ταυτόχρονα θα καθιστούν την αβεβαιότητά τους διαφανή και ελέγξιμη.

-Αυτή την περίοδο παρατηρούμε ένα τεράστιο επενδυτικό ενδιαφέρον γύρω από την τεχνητή νοημοσύνη. Πόσο από αυτό θεωρείτε ότι αντανακλά πραγματικά κέρδη και πόσο αντιστοιχεί σε επενδυτικό ενθουσιασμό που θα διορθωθεί τα επόμενα χρόνια;

Τα πραγματικά οφέλη είναι ήδη ορατά σε συγκεκριμένες και σχετικά περιορισμένες εφαρμογές: στη σύνοψη περιεχομένου, στη σύνταξη κειμένων, στη δρομολόγηση εργασιών, στην υποβοήθηση προγραμματισμού και στην εσωτερική αυτοματοποίηση διαδικασιών — ιδιαίτερα όταν αυτά συνδυάζονται με ποιοτικά δεδομένα και σαφή κατανομή ευθυνών στις επιχειρησιακές διαδικασίες.

Η υπερβολή εντοπίζεται στο γεγονός ότι μπορεί κάποιος απλώς να εγκαταστήσει ένα γενικό μοντέλο τεχνητής νοημοσύνης σε έναν σύνθετο οργανισμό και να τον μετασχηματίσει, χωρίς όμως κατάλληλη διακυβέρνηση, χωρίς ουσιαστική διαχείριση της οργανωτικής αλλαγής κ.ά.

Όσο για τις αγορές ενδέχεται να διορθώσουν την αποτίμηση εταιρειών που δεν συνδέουν την τεχνητή νοημοσύνη με μετρήσιμα αποτελέσματα και πραγματική διάθεση των προϊόντων τους στην αγορά. Οι πραγματικοί νικητές θα είναι όσοι αντιμετωπίσουν την τεχνητή νοημοσύνη ως προϊόν και ως βασική υποδομή λειτουργίας: κάτι που έχει δοκιμαστεί, παρακολουθείται συστηματικά και ενσωματώνεται ουσιαστικά στον τρόπο με τον οποίο γίνεται η δουλειά.

-Γιατί θα μας μιλήσετε στο EmTech Europe;

Η υγειονομική περίθαλψη είναι υπερφορτωμένη με πληροφορίες αλλά «διψά» για αξιόπιστες αποφάσεις που μεταφράζονται σε καλύτερα αποτελέσματα. Στο πάνελ “Predictive, Preventive, Personalized: The AI Health Revolution” του EmTech Europe, θα εστιάσω σε δύο συμπληρωματικά συστήματα: Πρώτον, την τεχνητή νοημοσύνη στην καθημερινή περίθαλψη, που ανιχνεύει τον κίνδυνο νωρίς, συνιστά τις επόμενες καλύτερες ενέργειες και αυτοματοποιεί το επιχειρησιακό last mile (σ.σ. το τελικό στάδιο υλοποίησης) ώστε η
φροντίδα να συμβαίνει πραγματικά. Δεύτερον στην χρήση τεχνητής νοημοσύνης στο πεδίο της ανακάλυψης φαρμάκων. Μιας τεχνητής νοημοσύνης που παράγει μεν υποψήφιες ουσίες αλλά κυρίως καθοδηγεί στο τι να δοκιμαστεί στη συνέχεια σε συνθήκες αβεβαιότητας.

Η κοινή συνιστώσα είναι η μετάβαση από την πρόβλεψη και την παραγωγή στην υποστήριξη αποφάσεων κλειστού βρόχου, δηλαδή σε συστήματα που μαθαίνουν από την ανάδραση (feedback) του πραγματικού κόσμου, κάνουν την αβεβαιότητα ρητή και ενεργούν σαν έμπιστοι σύμβουλοι — αναδεικνύοντας τυφλά σημεία, μειώνοντας τη μεταβλητότητα και βελτιώνοντας τόσο την ποιότητα όσο και την αποτελεσματικότητα.

Ακολουθήστε το insider.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις από την Ελλάδα και τον κόσμο.

Διαβάζονται αυτή τη στιγμή

Με ψήφους της ΝΔ το ελληνικό Iron Dome, στο παρών το ΠΑΣΟΚ - Ψηφοφορία σουρωτήρι στο πασοκικό συνέδριο

Εστίαση: Αυξήσεις μισθών, επιδόματα και 6ήμερη εργασία στη νέα διετή κλαδική σύμβαση

Οι 390 «πρωτάρηδες» δισεκατομμυριούχοι

Φόρτωση BOLM...
gazzetta
gazzetta reader insider insider