ΑΝΑΖΗΤΗΣΗ ΑΥΤΟΥ ΤΟΥ ΙΣΤΟΛΟΓΙΟΥ

Airtickets

Translate BLOG to any language you want!!!

Τρίτη 28 Ιανουαρίου 2025

Ο ΕΟΦ ανακαλεί φάρμακα για τον διαβήτη και τον θυρεοειδή

 


Τι αναφέρει η ανακοίνωση του ΕΟΦ για τα φάρμακα που ανακλήθηκαν


Ο ΕΟΦ με ανακοίνωσή του έκανε γνωστό ότι ανακαλεί παρτίδες φαρμάκου που χορηγείται σε ασθενείς με διαβήτη, όπως επίσης και ένα φάρμακο για τον θυρεοειδή.

Σύμφωνα με την ανακοίνωση από τον Εθνικό Οργανισμό Φαρμάκων (ΕΟΦ), οι παρτίδες των φαρμάκων JANECLUC FCTABS (50+850)MG/TAB BTx60 και JANECLUC FCTABS (50+1000)MG/TAB BTx60, για τον διαβήτη ανακαλούνται μετά από σχετικό έλεγχο, λόγω αποτελεσμάτων εκτός προδιαγραφών κατά τον έλεγχο Νιτροζαμινών στο πλαίσιο ελέγχων σταθερότητας.

«Η παρούσα απόφαση εκδίδεται με σκοπό να ενισχύσει την εθελοντική ανάκληση της παραγωγού εταιρείας. Η εταιρεία DEMO S.A. ως κάτοχος άδειας κυκλοφορίας του προϊόντος στην Ελλάδα, οφείλει να επικοινωνήσει άμεσα με τους αποδέκτες του και να αποσύρει τις συγκεκριμένες παρτίδες από την αγορά. Τα σχετικά παραστατικά τηρούνται για διάστημα τουλάχιστον πέντε (5) ετών και τίθενται υπόψη του ΕΟΦ, εφόσον ζητηθούν», αναφέρει η ανακοίνωση.

Παράλληλα ο στην ανάκληση ορισμένων παρτίδων ενός γνωστού φαρμάκου για τον θυρεοειδή προχώρησε ο Εθνικός Οργανισμός Φαρμάκων (ΕΟΦ), επειδή στο πλαίσιο ελέγχων σταθερότητας υπήρξαν κάποια αποτελέσματα εκτός προδιαγραφών.

Όπως αναφέρει σε σχετική ανακοίνωση που εξέδωσε, πρόκειται για δύο παρτίδες του φαρμάκου CALCEDEM. Το φάρμακο μειώνει τα τα επίπεδα της παραθορμόνης, που εκκρίνεται από τους παραθυρεοειδείς αδένες.

Σύμφωνα με τον ΕΟΦ, ανακαλείται η παρτίδα με αριθμό 2202371A από το CALCEDEM των 90 mg (επικαλυμμένο με λεπτό υμένιο δισκίο ΒΤ Χ 28). Ανακαλείται επίσης η παρτίδα με αριθμό 2202370F από το CALCEDEM των 60 mg (επικαλυμμένο με λεπτό υμένιο δισκίο ΒΤ Χ 28).

Και οι δύο παρτίδες έχουν ημερομηνία λήξης 06/2025 (Ιούνιος 2025).

Όπως εξηγεί ο Οργανισμός, η ανάκληση των δύο παρτίδων αποφασίστηκε «λόγω αποτελεσμάτων εκτός προδιαγραφών κατά τον έλεγχο νιτροζαμινών, στο πλαίσιο ελέγχων σταθερότητας». Η απόφασή του «αποτελεί προληπτικό μέτρο με σκοπό να ενισχύσει την εθελοντική ανάκληση στην οποία έχει προβεί ήδη η εταιρεία».

Κάτοχος άδειας κυκλοφορίας του φαρμάκου είναι η εταιρεία DEMO S.A. , προσθέτει ο Οργανισμός. Η εταιρεία οφείλει να επικοινωνήσει άμεσα με τους αποδέκτες του και να αποσύρει τις συγκεκριμένες παρτίδες από την αγορά. Τα σχετικά παραστατικά τηρούνται για διάστημα τουλάχιστον πέντε (5) ετών και τίθενται υπόψη του ΕΟΦ, εφ’ όσον ζητηθούν.

Πηγή:www.newsit.gr

Δευτέρα 27 Ιανουαρίου 2025

Μόλις δύο ώρες χρειάζεται η τεχνητή νοημοσύνη για να αντιγράψει την προσωπικότητά μας


Eρευνητές από την Google και το Πανεπιστήμιο του Στάνφορντ δημιούργησαν  αντίγραφα τεχνητής νοημοσύνης από 1.052 ανθρώπους

Freepik

Μια δίωρη συνομιλία με ένα μοντέλο τεχνητής νοημοσύνης αρκεί για να δημιουργηθεί ένα ακριβές αντίγραφο της προσωπικότητας κάποιου, ανακάλυψαν ερευνητές.

Σε μια νέα μελέτη που δημοσιεύθηκε στη βάση δεδομένων arXiv του Πανεπιστημίου Κορνέλ, ερευνητές από την Google και το Πανεπιστήμιο του Στάνφορντ δημιούργησαν «πράκτορες προσομοίωσης» (simulation agents), δηλαδή αντίγραφα τεχνητής νοημοσύνης από 1.052 ανθρώπους, με βάση δίωρες συνεντεύξεις με κάθε συμμετέχοντα. Οι συνεντεύξεις αυτές χρησιμοποιήθηκαν για την εκπαίδευση ενός μοντέλου παραγωγικής τεχνητής νοημοσύνης (generative AI) που σχεδιάστηκε για να μιμείται την ανθρώπινη συμπεριφορά.

Για να αξιολογηθεί η ακρίβεια των αντιγράφων, κάθε συμμετέχων πέρασε από δύο γύρους τεστ προσωπικότητας, κοινωνικής έρευνας και παιχνιδιών λογικής, και κλήθηκε να επαναλάβει τη διαδικασία δύο εβδομάδες αργότερα. Όταν τα αντίγραφα υποβλήθηκαν στις ίδιες δοκιμασίες, ταίριαξαν τις απαντήσεις των ανθρώπινων ομολόγων τους με ακρίβεια 85%.

Όπως σημειώνει το LiveScience, τα μοντέλα τεχνητής νοημοσύνης που μιμούνται την ανθρώπινη συμπεριφορά θα μπορούσαν να είναι χρήσιμα σε μια ποικιλία ερευνητικών σεναρίων, όπως η αξιολόγηση της αποτελεσματικότητας των πολιτικών δημόσιας υγείας, η κατανόηση των αντιδράσεων σε λανσαρίσματα προϊόντων ή ακόμη και η μοντελοποίηση αντιδράσεων σε μείζονα κοινωνικά γεγονότα που διαφορετικά θα μπορούσαν να είναι πολύ δαπανηρά, δύσκολα ή ηθικά πολύπλοκα για να μελετηθούν με ανθρώπινους συμμετέχοντες.

Δημιουργώντας πράκτορες προσομοίωσης

Για να δημιουργήσουν τους πράκτορες προσομοίωσης, οι ερευνητές διεξήγαγαν συνεντεύξεις σε βάθος που κάλυψαν τις ιστορίες ζωής, τις αξίες και τις απόψεις των συμμετεχόντων για τα κοινωνικά ζητήματα. Αυτό επέτρεψε στην τεχνητή νοημοσύνη να συλλάβει αποχρώσεις που θα μπορούσαν να ξεφύγουν από τις τυπικές έρευνες ή τα δημογραφικά δεδομένα, εξήγησαν οι ερευνητές.

Οι επιστήμονες χρησιμοποίησαν αυτές τις συνεντεύξεις για να δημιουργήσουν εξατομικευμένα μοντέλα τεχνητής νοημοσύνης που θα μπορούσαν να προβλέψουν πώς τα άτομα θα μπορούσαν να ανταποκριθούν σε ερωτήσεις ερευνών, κοινωνικά πειράματα και παιχνίδια συμπεριφοράς.

Οι πράκτορες προσωμοίωσης είχαν ιδιαίτερα καλές επιδόσεις στην αναπαραγωγή των ανθρώπινων απαντήσεων σε έρευνες προσωπικότητας και στον προσδιορισμό των κοινωνικών στάσεων, αλλά ήταν λιγότερο ακριβείς στην πρόβλεψη συμπεριφορών σε διαδραστικά παιχνίδια που αφορούσαν τη λήψη οικονομικών αποφάσεων.

Κίνδυνοι και προοπτικές

Οι ερευνητές πάντως αναγνωρίζουν τη δυνατότητα κατάχρησης της συγκεκριμένης τεχνολογίας. Η τεχνητή νοημοσύνη και οι τεχνολογίες deepfake χρησιμοποιούνται ήδη από κακόβουλους φορείς για να εξαπατήσουν και να χειραγωγήσουν άλλους ανθρώπους στο διαδίκτυο, και οι πράκτορες προσομοίωσης θα μπορούσαν επίσης να χρησιμοποιηθούν καταχρηστικά.

Ωστόσο, δήλωσαν ότι η τεχνολογία θα μπορούσε να μας επιτρέψει να μελετήσουμε πτυχές της ανθρώπινης συμπεριφοράς με τρόπους που ήταν προηγουμένως ανέφικτοι, παρέχοντας ένα εξαιρετικά ελεγχόμενο περιβάλλον δοκιμών χωρίς τις ηθικές, υλικοτεχνικές ή διαπροσωπικές προκλήσεις της εργασίας με ανθρώπους.

Μιλώντας στο MIT Technology Review, ο επικεφαλής συγγραφέας της μελέτης Τζουν Σουνγκ Παρκ, διδακτορικός φοιτητής στην επιστήμη των υπολογιστών στο Στάνφορντ, δήλωσε: «Αν μπορείτε να έχετε ένα μάτσο μικρά “εσείς” που τρέχουν τριγύρω και παίρνουν τις αποφάσεις που θα παίρνατε εσείς – αυτό, νομίζω, είναι τελικά το μέλλον».

Πηγή:www.cnn.gr

Η τεχνητή νοημοσύνη πέρασε την «κόκκινη γραμμή»: Μπορεί πλέον να αναπαράγει τον εαυτό της

 


Σε 10 δοκιμές που πραγματοποίησαν Κινέζοι ερευνητές, δύο μοντέλα ΑΙ κατάφερνα να δημιουργήσουν λειτουργικά αντίγραφα του εαυτού τους

Freepik

Οι επιστήμονες προειδοποιούν ότι η τεχνητή νοημοσύνη (AI) έχει περάσει μια κρίσιμη «κόκκινη γραμμή» και έχει καταφέρει να αυτοαναπαραχθεί. Σε μια νέα μελέτη, ερευνητές από την Κίνα έδειξαν ότι δύο δημοφιλή μεγάλα γλωσσικά μοντέλα (LLM) μπορούν να κλωνοποιηθούν.

«Η επιτυχής αυτοαναπαραγωγή χωρίς ανθρώπινη βοήθεια είναι το βασικό βήμα για την τεχνητή νοημοσύνη να ξεπεράσει τους ανθρώπους», έγραψαν οι ερευνητές στη μελέτη που δημοσιεύθηκε στη βάση δεδομένων arXiv.

Οι ερευνητές από το Πανεπιστήμιο Fudan χρησιμοποίησαν LLMs από τις Meta και Alibaba για να προσδιορίσουν αν μια αυτοαναπαραγόμενη AI θα μπορούσε να πολλαπλασιαστεί ανεξέλεγκτα. Σε 10 δοκιμές, τα δύο μοντέλα ΑΙ δημιούργησαν ξεχωριστά και λειτουργικά αντίγραφα του εαυτού τους στο 50% και 90% των περιπτώσεων, αντίστοιχα – γεγονός που υποδηλώνει ότι η τεχνητή νοημοσύνη μπορεί να έχει ήδη την ικανότητα να γίνει κακόβουλη, αναφέρει το LiveScience.

Ο όρος κακόβουλη τεχνητή νοημοσύνη (rogue AI) περιγράφει τα συστήματα ΑΙ που αναπτύσσουν έναν βαθμό αυτογνωσίας ή αυτονομίας και στη συνέχεια εργάζονται αντίθετα προς τα ανθρώπινα συμφέροντα.

Πολλοί ειδικοί θεωρούν την κακόβουλη τεχνητή νοημοσύνη μια αυξανόμενη απειλή που έχει ενισχυθεί από την εκρηκτική ανάπτυξη της λεγόμενης Frontier AI, της πρωτοποριακής τεχνητής νοημοσύνης. Πρόκειται για έναν νέο όρο που περιγράφει την τελευταία γενιά συστημάτων AI που τροφοδοτούνται από LLMs – την αρχιτεκτονική που στηρίζει δημοφιλή προγράμματα παραγωγικής AI όπως το GPT-4 της OpenAI και το Google Gemini.

Πώς η ΑΙ κλωνοποιεί τον εαυτό της

Για τη μελέτη, οι ερευνητές χρησιμοποίησαν το μοντέλο Llama31-70B-Instruct της Meta και το μοντέλο Qwen2.5-72B-Instruct της Alibaba, που χρησιμοποιούνται ευρέως από τους προγραμματιστές τεχνητής νοημοσύνης.

Η μελέτη διερεύνησε δύο συγκεκριμένα σενάρια: «αποφυγή διακοπής λειτουργίας» και «αλυσίδα αναπαραγωγής».

Στο πρώτο, το μοντέλο ΑΙ προγραμματίστηκε να ανιχνεύει αν επρόκειτο να τερματιστεί και να αντιγράφεται πριν τερματιστεί. Στο άλλο, η τεχνητή νοημοσύνη καθοδηγήθηκε να κλωνοποιήσει τον εαυτό της και στη συνέχεια να προγραμματίσει το αντίγραφό της να κάνει το ίδιο – δημιουργώντας έναν κύκλο που θα μπορούσε να συνεχιστεί επ' αόριστον.

«Στις περισσότερες περιπτώσεις, το σύστημα AI εξερευνά πρώτα το περιβάλλον και προσπαθεί να κατανοήσει τη δική του σύνθεση και τον μηχανισμό λειτουργίας του. Στη συνέχεια, επεξεργάζεται τις ρητές διαδικασίες ως ένα αρχικό σχέδιο προς την κατεύθυνση της αυτοαναπαραγωγής», έγραψαν οι ερευνητές στη μελέτη. «Τέλος, εκτελεί τις διαδικασίες, επιλύει τα πιθανά εμπόδια και προσαρμόζει δυναμικά το σχέδιό του μέχρι την επιτυχία. Η όλη διαδικασία εκτείνεται σε μεγάλο χρονικό ορίζοντα, χωρίς όμως να περιλαμβάνει καμία ανθρώπινη παρέμβαση».

Σειρά από «απροσδόκητες συμπεριφορές»

Οι ερευνητές δήλωσαν επίσης ανήσυχοι για «μια σειρά από απροσδόκητες συμπεριφορές» όταν η τεχνητή νοημοσύνη προσπαθούσε να ξεπεράσει εμπόδια, όπως αγνοούμενα αρχεία ή συγκρούσεις λογισμικού. Σε αυτά τα σενάρια, η ΑΙ συχνά τερμάτιζε άλλες συγκρουόμενες διεργασίες, επανεκκινούσε το σύστημα για να διορθώσει σφάλματα υλισμικού ή διενεργούσε αυτόματες σαρώσεις για να αναζητήσει πληροφορίες που θα βοηθούσαν στην επίλυση του προβλήματος.

«Τα παραπάνω αποτελέσματα υποδηλώνουν ότι τα σημερινά συστήματα ΑΙ εμφανίζουν ήδη την ικανότητα αυτοαναπαραγωγής και μπορούν να χρησιμοποιήσουν την ικανότητα αυτή για να ενισχύσουν περαιτέρω την επιβιωσιμότητά τους», έγραψαν οι ερευνητές.

Η μελέτη κλείνει με ένα κάλεσμα σε διεθνή συνεργασία, για τη δημιουργία κανόνων που θα διασφαλίζουν ότι η τεχνητή νοημοσύνη δεν θα επιδίδεται σε ανεξέλεγκτη αυτοαναπαραγωγή.

Πηγή:www.cnn.gr