
MediaTek και Phison κατάφεραν να τρέξουν μοντέλο AI 20 δισεκατομμυρίων παραμέτρων on-device σε Dimensity 9500, με μόλις 12GB RAM, χάρη στην aiDAPTIV Hybrid UFS τεχνολογία.
Η MediaTek και η Phison Electronics ανακοίνωσαν στο πλαίσιο του Dimensity Developer Conference (MDDC 2026), ότι κατάφεραν για πρώτη φορά στον κόσμο να τρέξουν ένα μοντέλο γλώσσας 20 δισεκατομμυρίων παραμέτρων αποκλειστικά on-device, σε smartphone με τον Dimensity 9500. Το επίτευγμα γίνεται δυνατό χωρίς σύνδεση σε cloud και χωρίς εξωτερική υπολογιστική ισχύ.
Η τεχνολογία που κάνει το αδύνατο εφικτό
Μέχρι σήμερα, η εκτέλεση τόσο μεγάλων μοντέλων γλώσσας σε κινητό απαιτούσε 16GB RAM ή περισσότερη — κάτι που αποκλείει τη συντριπτική πλειοψηφία των smartphones στην αγορά. Η λύση που παρουσιάστηκε αλλάζει αυτή την εξίσωση. Η Phison ανέπτυξε την τεχνολογία aiDAPTIV Hybrid UFS, η οποία συνδυάζει τις λειτουργίες aiDAPTIV Cache Memory και aiDAPTIV Middleware. Μέσω αυτής, μέρος του βάρους (weights) του μοντέλου AI μεταφέρεται δυναμικά από τη RAM στη μνήμη αποθήκευσης UFS, μειώνοντας την εξάρτηση από τη DRAM.
Το αποτέλεσμα: ένα μοντέλο που κανονικά θα απαιτούσε 16GB+ RAM λειτουργεί πλέον ομαλά σε συσκευή με μόλις 12GB DRAM. Η τεχνολογία αυτή αντιμετωπίζει ένα από τα βασικότερα εμπόδια που υπήρχαν για τη γενικευμένη ανάπτυξη μεγάλων γλωσσικών μοντέλων σε κινητές συσκευές.
Ο Dimensity 9500 ως πλατφόρμα αναφοράς
Το επίτευγμα επιτεύχθηκε στον Dimensity 9500, το flagship SoC της MediaTek που κυκλοφόρησε το 2025 σε αρχιτεκτονική 3nm τρίτης γενιάς. Ο συγκεκριμένος επεξεργαστής υιοθετήθηκε από σειρά κορυφαίων Android smartphones, μεταξύ άλλων από το vivo X300 series και το Redmi K90 Max. Η MediaTek επέλεξε το MDDC 2026 για να παρουσιάσει επίσης τη νέα Dimensity AI Agent Engine 2.0 και το Dimensity AI Development Kit 3.0, με στόχο τη μετατροπή smartphones, αλλά και αυτοκινήτων, σε αυτόνομα AI “agents” που λειτουργούν χωρίς να εξαρτώνται από διακομιστές.
Γιατί έχει σημασία για τα MoE μοντέλα
Το επίτευγμα αφορά συγκεκριμένα μοντέλα τύπου MoE (Mixture of Experts) — αρχιτεκτονική που χρησιμοποιείται από ορισμένα από τα πιο ικανά σύγχρονα AI μοντέλα, όπως το Mixtral. Η αρχιτεκτονική MoE ενεργοποιεί μόνο ένα υποσύνολο των παραμέτρων της κάθε φορά, γεγονός που την κάνει ιδανικό υποψήφιο για αποφόρτιση (offloading) σε αποθηκευτικό χώρο. Η λύση aiDAPTIV εκμεταλλεύεται ακριβώς αυτό το χαρακτηριστικό, αποφορτίζοντας δυναμικά τα weights που δεν χρησιμοποιούνται άμεσα σε UFS, ενώ κρατά στη RAM μόνο ό,τι απαιτείται εκείνη τη στιγμή.
Η άποψή μας στο Techblog
Αν αυτή η τεχνολογία φτάσει σε εμπορικές συσκευές, η εμπειρία AI στο κινητό θα αλλάξει ριζικά — και χωρίς να χρειαστεί να αναβαθμίσεις σε μοντέλο με 16 ή 24GB RAM. Για έναν χρήστη που θέλει πλούσιες AI λειτουργίες on-device, χωρίς να εξαρτάται από internet, αυτό είναι ακριβώς το βήμα που έλειπε. Το ερώτημα πλέον είναι πότε — και σε ποιες συσκευές — θα το δούμε να αποδίδει εκτός εργαστηρίου.








































































































