• Hello AI
  • Posts
  • ⚖️ Történelmi per: 1,5 milliárdot fizet az Anthropic a szerzőknek

⚖️ Történelmi per: 1,5 milliárdot fizet az Anthropic a szerzőknek

500 ezer könyv után jön a rekordkártérítés. A jövőben az AI-cégeknek fizetniük kellhet a tanító adatokért.

💰 1,5 milliárdos kártérítés: történelmi AI-per zárult

Az Anthropic rekordösszegű, 1,5 milliárd dolláros egyezséget kötött egy szerzői csoporttal, miután kiderült: több százezer könyvet – köztük jogvédett műveket – használt fel jogtalanul Claude modelljei betanításához.

A szerzők könyvenként kb. 3 000 dollár kártérítést kapnak, összesen mintegy 500 000 mű érintett. Ez az eddigi legnagyobb szerzői jogi rendezés az AI-iparban.

⚖️ Miért fontos? A megállapodás precedenst teremthet: a jövőben az AI-cégeknek fizetniük kellhet a tréningadatokért, ezzel elindítva a jogszerű licencelések korszakát. npr

🔬 Quantization – számok, amik könnyebbé teszik a modellt

A quantization lényege, hogy a modellekben használt számokat kisebb pontosságúra alakítják (pl. 32 bites lebegőpontos értékek helyett 8 vagy 4 bites verzió).

Ez mit jelent?

  • Kisebb méret → a modell kevesebb tárhelyet foglal

  • Gyorsabb futás → könnyebb a számítás, így gyorsabban válaszol

  • Olcsóbb működés → kevesebb energia és hardver kell hozzá

A veszteség? Minimális. A legtöbb esetben a pontosság szinte változatlan marad, miközben a teljesítmény jelentősen javul.

Röviden: a quantization olyan az AI-nak, mint a tömörítés a fájloknak – szinte mindent megőriz, de sokkal kevesebb helyen és erőforrással fut.

 🎯 Hangnem-váltó prompt: így kapsz stílusos válaszokat

Az AI válaszainak tónusa hatalmas különbséget jelenthet.

Próbáld ki:

📝 Így írd a promptot:
„Magyarázd el ezt a fogalmat úgy, mintha egy tanár / barát / CEO lennél.”

📊 Mit kapsz vissza?
Három teljesen eltérő kommunikációs stílust - ugyanarra a kérdésre.

Előny: egy kérdésből több szemszögű magyarázatot kapsz, így mindig a helyzethez illőt használhatod.

🧠 Miért hallucinálnak a nyelvi modellek?

Az OpenAI friss tanulmánya (Why Language Models Hallucinate) rávilágít, hogy a modellek nem „hazudnak”, hanem statisztikai mintázatok alapján próbálnak válaszolni. A gond az, hogy a finomhangolás közben arra trenírozzák őket, hogy mindig magabiztosnak tűnjenek – még akkor is, ha bizonytalanok.

 Megoldás: engedni kell, hogy a modellek kimondhassák a „nem tudom”-ot, és bizalmi szintekhez kell kötni a válaszadást.

🎥 HeyGen – AI videók percek alatt

A HeyGen egy AI-alapú videókészítő platform, amellyel pillanatok alatt professzionális tartalmakat gyárthatsz. Több mint 300 hang, 40 nyelv és 100+ avatar közül választhatsz, természetes ajak-szinkronizálással. Ideális termékvideókhoz, oktatáshoz vagy marketinghez – nincs szükség stúdióra, színészre vagy drága felszerelésre.

👉 Próbáld ki: Heygen

📚 Parameter-Efficient Tuning: amikor nem kell az egész modellt átírni

A PEFT egy új megközelítés, amivel nem kell az egész AI modellt átírni, ha testreszabnád. Ahelyett, hogy milliárdnyi paramétert módosítanál, csak egy kis részhalmazt tanítasz újra.

Ez azt jelenti, hogy a finomhangolás:

  • gyorsabb, mert kevesebb számítást igényel

  • olcsóbb, mert kisebb hardver is elég hozzá

  • rugalmasabb, mert többféle feladatra könnyen adaptálható

 Röviden: a PEFT olyan, mint egy óriási hajót kormányozni apró kormánymozdulatokkal – kevesebb energia, mégis teljes irányítás.

📬 A Te ötleted is bekerülhet

💬 Használod az AI-t okosan? Küldd el a tipped, trükköd vagy kedvenc eszközöd. A legjobbak bekerülnek a következő hírlevélbe a neveddel együtt!

📨 Csak válaszolj erre az emailre.

Legyen további szép napod!

5percAI

Reply

or to participate.