A Microsoft szerint a Copilot „csak szórakoztatási célokra” való
A technológiatörténet talán legkínosabb jogi nyilatkozatában a Microsoft Copilot felhasználási feltételei félkövér betűkkel figyelmeztetnek: „A Copilot csak szórakoztatási célokra szolgál. Hibázhat, és nem biztos, hogy a várt módon működik. Ne hagyatkozzon a Copilotra fontos tanácsokért.”
A kitétel a Copilot egyéni felhasználási feltételeiben bújik meg, és a hétvégén kapott újra reflektorfényt, miután újságírók és fejlesztők rámutattak az ellentmondásra: a Microsoft eközben minden erejével azon van, hogy a Copilotot beépítse a teljes termékpalettájába — a Windowstól és az Office-tól az Azure-on át a GitHubig.
Sem a Google, sem az OpenAI nem alkalmaz hasonló megfogalmazást fogyasztói AI-termékeire. A Microsoft szóvivője szerint a cég frissíteni fogja a „korábbi szövegezést”, mert az már „nem tükrözi a Copilot mai használatát”. Az eset azonban szélesebb kérdéseket vet fel arról, mennyire veszik komolyan a techcégek saját AI-eszközeik korlátait — különösen, amikor milliárdos vállalati licencbevételek forognak kockán.
Feszültségek az OpenAI vezetésében: Altman vs. pénzügyi igazgató az IPO időzítése miatt
Ma napvilágot látott, hogy Sam Altman, az OpenAI vezérigazgatója kiszorította Sarah Friar pénzügyi igazgatót a kulcsfontosságú pénzügyi megbeszélésekről. Friar mostantól Fidji Simónak, a cég elnökének jelent, nem pedig közvetlenül Altmannek — ami szokatlan struktúra egy ilyen méretű cég CFO-ja esetében.
A feszültség gyökere az OpenAI tőzsdei bevezetésének ütemezése. Altman 2026 negyedik negyedévére szeretné az IPO-t, míg Friar belső aggodalmainak adott hangot: a cég pénzégetése akár a 200 milliárd dollárt is meghaladhatja, mire pozitív cash flow-t ér el. Friar arra is felhívta a figyelmet, hogy a közelmúltbeli 122 milliárd dolláros finanszírozási körben a fő befektetők — az Amazon és az NVIDIA — egyben az OpenAI kulcsfontosságú beszállítói is, ami összeférhetetlenségi kockázatot jelent.
Az OpenAI jelenleg havi több mint 2 milliárd dollár bevételt termel. Altman és Friar nyilvánosan egyaránt azt állítják, hogy a vállalat szélesebb compute-stratégiájában egyetértenek — de a szervezeti átrendezés bonyolultabb képet fest.
A Google Gemma 4 teljesen open-source lett Apache 2.0 licenc alatt
A Google az elmúlt héten adta ki a Gemma 4-et Apache 2.0 licenc alatt — ez jelentős váltás a korábbi Gemma verziókhoz képest, amelyek ugyan open-weight modellek voltak, de korlátozó felhasználási feltételekkel. Ez az első alkalom, hogy a Google valóban megengedő open-source licenc alatt ad ki Gemma modellt.
A Gemma 4 család négy méretben érhető el — 2B, 4B, 26B és 31B paraméterrel —, és a csúcsmodell, a 31B Dense a harmadik helyen áll az Arena AI szöveges ranglistáján az open modellek között. A főbb jellemzők között szerepel a 256K token kontextusablak, a natív kép- és hangfeldolgozás, valamint a több mint 140 nyelv támogatása.
Az igazi hír azonban az Apache 2.0 licencelés. Ez lehetővé teszi a korlátlan kereskedelmi felhasználást, módosítást és továbbdisztribúciót, így a Gemma 4 jogilag azonos szintre kerül a Meta Llama modelljeivel, és sokkal vonzóbbá válik a startupok és nagyvállalatok számára, amelyek éles AI-rendszereket építenek.
Kalifornia saját utat választ az AI-szabályozásban, szembeszállva a szövetségi kormánnyal
Gavin Newsom kormányzó aláírt egy úttörő rendeletet, amely új AI-beszerzési standardokat ír elő az állami szerződésekhez — ezzel közvetlenül szembemenve a Trump-kormányzat törekvésével, amely egy egységes nemzeti AI-keretrendszerrel felülírná az államszintű szabályozást.
A rendelet értelmében az állami megbízásokra pályázó AI-cégeknek közzé kell tenniük a visszaélések elleni biztosítékaikat — beleértve a gyermekek szexuális kizsákmányolását megakadályozó és a jogellenes diszkriminációt kizáró intézkedéseket. Az állami tisztviselőknek vízjellel kell ellátniuk az AI által generált tartalmakat, Kalifornia pedig önállóan felülvizsgálja a szövetségi ellátásilánc-kockázati besorolásokat, ahelyett hogy automatikusan elfogadná a Pentagon értékeléseit.
A lépés különösen élesen hat annak fényében, hogy a Védelmi Minisztérium nemrég ellátásilánc-kockázatnak minősítette az Anthropicet. Newsom világossá tette: Kalifornia fenntartja a jogot, hogy a szövetségi besorolástól függetlenül továbbra is vásároljon AI-termékeket.
Röviden
Az Anthropic Claude Code-szivárgás utóélete: A Claude Code 512 000 sornyi forráskódjának véletlen npm-publikálása — amelyet egy Bun bundler hiba és egy csomagolási tévedés okozott — egy héttel később is téma. A kódbázist ezrével tükrözték és forkolták GitHubon, bár az Anthropic megerősítette, hogy ügyféladatok és modellsúlyok nem kerültek ki.
Georgia három AI-törvényt küld a kormányzó elé: Az állam törvényhozásának mai zárónapján Brian Kemp kormányzó asztalán három AI-vonatkozású törvényjavaslat landolt: egy chatbot-közzétételi és gyermekvédelmi törvény (SB 540), egy AI-vizsgálóbizottsági javaslat (SR 789), és egy olyan törvény, amely megtiltja, hogy egészségügyi biztosítási döntéseket kizárólag AI-rendszerekre bízzanak (SB 444).
Kína AI-t épít a közoktatásba: Kína AI-alapú oktatási eszközöket vezet be az állami iskolákban országszerte, elsősorban a tanárok terheinek csökkentésére és az alulfinanszírozott vidéki iskolák támogatására.