Intel kiadta az OpenVINO 2026.1-et: Llama.cpp-backend és új hardvertámogatás

enlightened Ez az oldal a közösségért készül. heart Kövess minket máshol is:  Linux Mint Magyar Közösség a Mastodon-on  Telegram csatorna – csak hírek  Beszélgessünk a Telegram – Linux csevegő csoport  Hírek olvasása RSS segítségével  Linux Mint Hivatalos Magyar Közösség a Facebook-on      Linux Mint Baráti Kör a Facebook-on
wink Ha hasznosnak találod, és szeretnéd, hogy folytatódjon, támogasd a munkát Ko-fi vagy Paypal segítségével. laugh

kami911 képe

Az OpenVINO 2026.1 tovább bővíti a GenAI funkciókat. CPU-n és GPU-n futtatva mostantól támogatja a Qwen3 VL-t. CPU-n emellett megjelent a GPT-OSS 120B támogatása is.

Az OpenVINO 2026.1 egyik előnézeti funkciója az OpenVINO backend a Llama.cpp-hez. A llama.cpp upstream már rendelkezik SYCL back-enddel Intel GPU-khoz és más platformokhoz, most pedig egy OpenVINO backenden is dolgoznak. Ez az OpenVINO backend a Llama.cpp-hez optimalizált inferenciát tesz lehetővé Intel CPU-kon, GPU-kon és NPU-kon. Kifejezetten izgalmas újdonság: ahogy ez a backend kiforrottá válik, megnyithatja a Llama.cpp-t az Intel Core Ultra NPU használata előtt is, és még sok más lehetőség előtt.

"Előnézet: Bemutatjuk az OpenVINO backendet a llama.cpp-hez, amely optimalizált inferenciát tesz lehetővé Intel CPU-kon, GPU-kon és NPU-kon. GGUF modelleken validáltuk, például: Llama-3.2-1B-Instruct-GGUF, Phi-3-mini-4k-instruct-gguf, Qwen2.5-1.5B-Instruct-GGUF és Mistral-7B-Instruct-v0.3."

Az OpenVINO 2026.1 hivatalosan támogatja a Wildcat Lake SoC-okat, valamint a nemrég megjelent Intel Arc Pro B70 32GB grafikus kártyát (tesztek).

A letöltések és további részletek az OpenVINO 2026.1 kiadásáról itt érhetők el: GitHub. Hamarosan frissített OpenVINO benchmarkokat lesznek majd.