Sluit u aan bij onze dagelijkse en wekelijkse nieuwsbrieven voor de laatste updates en exclusieve inhoud over toonaangevende AI-dekking. Meer informatie
Terwijl bedrijven verschillende manieren blijven onderzoeken om de manier waarop ze omgaan met verschillende werklasten in het datacenter en aan de edge te optimaliseren, ontstaat er een nieuwe startup, Locatieis uit stealth voortgekomen met een interessante, kostenbesparende computeraanpak: universele verwerking.
Onder leiding van veteranen uit de halfgeleiderindustrie heeft de startup een microprocessorarchitectuur ontwikkeld die alle verwerkingstaken – of het nu gaat om AI-inferentie of taken voor algemene doeleinden – consolideert in één enkele veelzijdige chip.
Dit heeft volgens Ubitium het potentieel om de manier waarop bedrijven met computers omgaan te transformeren, waardoor ze niet meer hoeven te vertrouwen op verschillende soorten processors en processorkernen voor verschillende gespecialiseerde workloads. Het kondigde ook $ 3,7 miljoen aan financiering aan van meerdere durfkapitaalbedrijven.
Ubitium zegt dat het zich momenteel richt op de ontwikkeling van universele chips die de computergebruik voor edge- of embedded-apparaten kunnen optimaliseren, waardoor bedrijven de implementatiekosten met een factor tot 100x kunnen verlagen. Het benadrukte echter dat de architectuur zeer schaalbaar is en in de toekomst ook voor datacenters kan worden gebruikt.
Het neemt het op tegen enkele gevestigde namen in de edge-AI-computerruimte, zoals Nvidia met zijn Jetson-chipslijn en Sima.AI met zijn Modalix-familie, die laat zien hoe de race om AI-specifieke processors te creëren zich verplaatst van grote datacenters naar meer discrete apparaten en workloads.
Waarom een alles-in-één-chip?
Als het gaat om het aandrijven van een edge- of embedded systeem, vertrouwen organisaties tegenwoordig op system-on-chips (SoC’s) die meerdere gespecialiseerde verwerkingseenheden integreren – CPU’s voor algemene taken, GPU’s voor grafische en parallelle verwerking, NPU’s voor versnelde AI-workloads, DSP’s voor signaalverwerking en FPGA’s voor aanpasbare hardwarefuncties. Deze geïntegreerde eenheden werken samen om ervoor te zorgen dat het apparaat de verwachte prestaties levert. Een goed voorbeeld is het geval van smartphones die vaak NPU’s met andere processors gebruiken voor efficiënte AI-verwerking op het apparaat, terwijl het stroomverbruik laag blijft.
Hoewel de aanpak zijn werk doet, gaat deze ten koste van de toegenomen hardware- en softwarecomplexiteit en hogere productiekosten, wat de adoptie voor bedrijven moeilijk maakt. Bovendien kan onderbenutting van bronnen een groot probleem worden als er een lappendeken van componenten op de stapel staat. Als het apparaat geen AI-functie uitvoert, zou de NPU voor AI-werkbelastingen in wezen gewoon inactief zijn en het siliciumgebied (en energie) in beslag nemen.
Om deze kloof te dichten, heeft Martin Vorbach, die meer dan 200 halfgeleiderpatenten bezit onder licentie van grote Amerikaanse chipbedrijven, de universele verwerkingsarchitectuur bedacht. Hij besteedde 15 jaar aan de ontwikkeling van de technologie en werkte uiteindelijk samen met CEO Hyun Shin Cho en voormalig Intel-topman Peter Weber om deze op de markt te brengen.
In de kern, legt Shin Cho uit, maakt de microprocessorarchitectuur het mogelijk dat dezelfde transistors van de chip worden hergebruikt voor verschillende verwerkingstaken, waardoor een enkele processor zich dynamisch kan aanpassen aan verschillende werklasten, van algemeen computergebruik dat nodig is voor eenvoudige besturingslogica tot enorme parallelle taken. verwerking van gegevensstromen en AI-inferentie.
“Omdat we dezelfde transistors hergebruiken voor verschillende werklasten, een reeks chips vervangen en de complexiteit verminderen, verlagen we de totale kosten van het systeem. Afhankelijk van de basislijn is dit een prestatie/kostenverhouding van 10x tot 100x… Het hergebruik van transistors voor verschillende workloads vermindert het totale aantal transistors in de processor drastisch, waardoor er nog meer energie en silicium wordt bespaard”, voegde de CEO eraan toe.
Doel om geavanceerde computers toegankelijk te maken
Met de homogene, werklastonafhankelijke microverwerkingsarchitectuur hoopt Ubitium conventionele processors – CPU’s, NPU’s, GPU’s, DSP’s en FPGA’s – te kunnen vervangen door één enkele, veelzijdige chip. De consolidatie (die leidt tot een vereenvoudigd systeemontwerp en lagere kosten) zal geavanceerde computers toegankelijker maken, waardoor snellere ontwikkelingscycli mogelijk worden voor toepassingen op het gebied van consumentenelektronica, industriële automatisering, domotica, gezondheidszorg, automobielsector, ruimtevaart en defensie.
De architectuur is ook volledig compatibel met RISC-V, de open-source instructiesetarchitectuur voor processorontwikkeling. Dit maakt het eenvoudig te gebruiken voor toepassingen zoals IoT, mens-machine-interfaces en robotica.
“Door de barrière voor krachtige computerimplementatie en AI-mogelijkheden te verlagen, zorgt onze technologie ervoor dat IoT-apparaten gegevens lokaal kunnen verwerken en in realtime intelligente beslissingen kunnen nemen. Dit zal ook helpen bij het oplossen van interoperabiliteitsproblemen door apparaten in staat te stellen zich naadloos aan te passen en te communiceren met diverse systemen”, legt Cho uit.
In dit stadium heeft het bedrijf 18 patenten op de technologie met een op FPGA-emulatie gebaseerd prototype en is het bezig met de ontwikkeling van een portfolio van chips die qua array-grootte variëren, maar dezelfde onderliggende universele architectuur en softwarestack delen. Het is van plan om de komende maanden een wafer-prototype voor meerdere projecten met een ontwikkelingskit te lanceren en in 2026 de eerste edge computing-chips naar klanten te verzenden.
Uiteindelijk zal het werk hen volgens Cho in staat stellen schaalbare computeroplossingen aan te bieden voor verschillende (en evoluerende) prestatiebehoeften, van embedded apparaten tot grootschalige edge computing-systemen.
“Onze werklastonafhankelijke processor zal zich ook zonder hardwareaanpassingen kunnen aanpassen aan nieuwe AI-ontwikkelingen. Dit zal ontwikkelaars in staat stellen de nieuwste AI-modellen op bestaande apparaten te implementeren, waardoor de kosten en complexiteit die gepaard gaan met hardwarewijzigingen worden verminderd.… Door de hardware- en softwarelagen te scheiden, willen we onze processor tot een standaard computerplatform maken dat de ontwikkeling vereenvoudigt en de innovatie versnelt. diverse industrieën,” voegde hij eraan toe.