Az OpenVINO 2026.1 tovább bővíti a GenAI funkciókat. CPU-n és GPU-n futtatva mostantól támogatja a Qwen3 VL-t. CPU-n emellett megjelent a GPT-OSS 120B támogatása is.
Az OpenVINO 2026.1 egyik előnézeti funkciója az OpenVINO backend a Llama.cpp-hez. A llama.cpp upstream már rendelkezik SYCL back-enddel Intel GPU-khoz és más platformokhoz, most pedig egy OpenVINO backenden is dolgoznak. Ez az OpenVINO backend a Llama.cpp-hez optimalizált inferenciát tesz lehetővé Intel CPU-kon, GPU-kon és NPU-kon. Kifejezetten izgalmas újdonság: ahogy ez a backend kiforrottá válik, megnyithatja a Llama.cpp-t az Intel Core Ultra NPU használata előtt is, és még sok más lehetőség előtt.
"Előnézet: Bemutatjuk az OpenVINO backendet a llama.cpp-hez, amely optimalizált inferenciát tesz lehetővé Intel CPU-kon, GPU-kon és NPU-kon. GGUF modelleken validáltuk, például: Llama-3.2-1B-Instruct-GGUF, Phi-3-mini-4k-instruct-gguf, Qwen2.5-1.5B-Instruct-GGUF és Mistral-7B-Instruct-v0.3."
Az OpenVINO 2026.1 hivatalosan támogatja a Wildcat Lake SoC-okat, valamint a nemrég megjelent Intel Arc Pro B70 32GB grafikus kártyát (tesztek).
A letöltések és további részletek az OpenVINO 2026.1 kiadásáról itt érhetők el: GitHub. Hamarosan frissített OpenVINO benchmarkokat lesznek majd.


