OpenAI

kami911 képe

ChatGPT 5 – 24 óra alatt jailbreak-elték meg

Két különböző biztonsági kutatócsoport is tesztelte az OpenAI nemrég bemutatott GPT-5 nyelvi modelljét, és mindkettő komoly biztonsági hiányosságokat fedezett fel. A Grok-4 modellt korábban két nap alatt sikerült feltörni, a GPT-5 pedig mindössze 24 óráig bírta ugyanazon kutatók keze alatt.

kami911 képe

OpenAI jelentés: AI eszközöket használnak rosszindulatú célokra

Az OpenAI nemrég közzétett jelentésében a mesterséges intelligencia által támogatott rosszindulatú tevékenységeket vizsgálja.

kami911 képe

Az OpenAI komolyan veszi az adatszivárgással kapcsolatos állításokat

Az OpenAI vizsgálja a felhasználói fiókok millióit érintő, adatszivárgásról szóló jelentéseket, de azt állítja, hogy még nem talált bizonyítékot a rendszer kompromittáltságára. A vállalat az igen népszerű AI chatbot, a ChatGPT fejlesztője, amelynek népszerűsége töretlen.

kami911 képe

Sam Altmanék bemutatták az o3-at

Jókora lépéssel közelebb került a mesterséges általános intelligenciához (Artificial General Intelligence, AGI) az OpenAI. A ChatGPT-t kifejlesztő amerikai cég pénteken rukkolt elő új, o3 nevű modelljével, amely az emberéhez hasonló teljesítményt ért el egy elismert, általános intelligenciát vizsgáló AI-teszten, amihez hasonlóra egyetlen korábbi modell sem volt képes.

Feliratkozás RSS - OpenAI csatornájára