Η Red Hat αποκτά τη Neural Magic και ενισχύει την παρουσία της στην τεχνητή νοημοσύνη
Η Neural Magic, spin-off του MIT που ιδρύθηκε το 2018, έχει αναπτύξει λογισμικό και αλγορίθμους που επιταχύνουν τα AI inference workloads, επιτρέποντας τη λειτουργία πολύπλοκων AI μοντέλων σε συμβατικό hardware (CPUs και GPUs). Αυτή η τεχνολογία μειώνει την ανάγκη για ακριβά και εξειδικευμένα AI accelerators, προσφέροντας αποδοτικές λύσεις σε εταιρείες που επιθυμούν να αξιοποιήσουν την τεχνητή νοημοσύνη χωρίς υψηλά κόστη επένδυσης σε εξοπλισμό.
Μέσω της εξαγοράς, η Red Hat αποκτά βασικές τεχνολογίες όπως:
vLLM: Μια ανοιχτού κώδικα πλατφόρμα για αποδοτική διαχείριση μεγάλων γλωσσικών μοντέλων (LLMs), ήδη ενσωματωμένη στα RHEL AI και OpenShift AI. DeepSparse: Runtime εργαλείο που προσφέρει απόδοση επιπέδου GPU σε απλούς CPUs, μειώνοντας τις απαιτήσεις σε υπολογιστική ισχύ και μνήμη. SparseZoo: Αποθετήριο με έτοιμα, βελτιστοποιημένα μοντέλα για Computer Vision (CV), Natural Language Processing (NLP) και LLMs. Τεχνικές συμπίεσης μοντέλων: Προηγμένες μέθοδοι quantization και sparsification για μείωση του μεγέθους και της πολυπλοκότητας των AI μοντέλων, χωρίς σοβαρή απώλεια ακρίβειας. Δια-πλατφορμική βελτιστοποίηση: Δυνατότητα ανάπτυξης AI μοντέλων σε cloud, data centers και edge υποδομές.
Ο CEO της Red Hat, Matt Hicks, δήλωσε: «Είμαστε ενθουσιασμένοι που ενισχύουμε το AI portfolio μας με την πρωτοποριακή καινοτομία της Neural Magic, στοχεύοντας να γίνουμε όχι μόνο η Red Hat του open source αλλά και η Red Hat της τεχνητής νοημοσύνης». Αυτή η στρατηγική ενίσχυση έρχεται να υποστηρίξει έργα όπως το InstructLab, μια συνεργασία της Red Hat και της IBM για τη βελτίωση των open-source Granite LLMs.
Η εξαγορά αυτή αναμένεται να ενισχύσει σημαντικά την παρουσία της Red Hat στον χώρο της τεχνητής νοημοσύνης, προσφέροντας πιο αποδοτικές και οικονομικές AI λύσεις, μειώνοντας την εξάρτηση από εξειδικευμένο hardware. Όπως σημειώνει ο Dave McCarthy, αντιπρόεδρος της IDC, «η εξαγορά της Neural Magic αποτελεί στρατηγική ενίσχυση για την ανάπτυξη AI εφαρμογών σε υβριδικά cloud περιβάλλοντα, αξιοποιώντας τη βελτιστοποίηση και την επιτάχυνση inference που προσφέρει».
356