• Hello AI
  • Posts
  • 🤯 Apple 1 milliárdot fizet a Google-nak

🤯 Apple 1 milliárdot fizet a Google-nak

Apple és Google nagy dobása: Siri mostantól Gemini AI-val erősít, évi 1 milliárd dolláros üzletben, amely forradalmasíthatja a digitális asszisztensek világát.

Szia! 👋

Ezen a héten két óriási bejelentés rázta meg a tech világot. Az Apple 1 milliárd dollárt fizet évente a Google-nak, az OpenAI pedig 38 milliárd dollárért kötött infrastruktúra üzletet az AWS-sel. Értsd meg a vektor adatbázist egyszerűen!

📰 Ma a Hello AI-ban:

  • 📌 Gemini x Siri - ⏱️ 1,5 perc

  • 📌 Vektor adatbázis - ⏱️ 1,5 perc

  • 📌 Openai + AWS - ⏱️ 55 mp

  • 📌 Kimi AI - ⏱️ 15 mp

  • 📌 Transformer - ⏱️ 40 mp 

💼 Apple 1 milliárd dollárt fizet évente a Google-nak a Siri-ért

Az Apple évente körülbelül 1 milliárd dollárt fog fizetni a Google-nak azért, hogy a Gemini AI modellt integrálja a Siri-be. A cél? Hogy a Siri végre versenyképes legyen az Alexa és a Google Assistant mellett. A Gemini egy új generációs, nagy teljesítményű nyelvi modell, amely képes komplexebb és természetesebb nyelvi interakciókra.

🎯 Miért fontos?
Ez az Apple beismerése, hogy saját AI fejlesztései nem tartanak lépést a versennyel. A Siri mostanáig lemaradt, de a Gemini integrációval teljesen új képességeket kaphat és ez jelzi, hogy a techóriások kényszerűen együttműködnek az AI versenyben, még a konkurensek is.

💻 Mi az a vektor adatbázis?

Képzeld el, hogy van egy hatalmas könyvtárad. Tele van könyvekkel, képekkel, videókkal, hangfelvételekkel. Most meg akarsz találni valamit ebben a könyvtárban.

A hagyományos módszer (régi adatbázisok):

Egy régi könyvtárban betűrend szerint keresed a könyveket. Ha "Macska" című könyvet keresel, akkor az "M" betűhöz mész. Ez egy táblázat, sorok és oszlopok. Pontos egyezés kell: ha azt írtad "Macska", akkor csak a "Macska" című könyvet találod meg, a "Cica" vagy "Kandúr" című könyveket nem.

A probléma?

Mi van akkor, ha nem emlékszel a pontos címre? Mi van, ha képet keresel? Vagy egy videót, ahol macskák vannak? Vagy egy hangfelvételt macska nyávogásról? A régi módszer itt leáll. Nem tudod keresni azt, ami nincs szövegként megírva.

Vektor adatbázis: Az új generáció

Most képzeld el, hogy minden dolgot a könyvtáradban - könyvet, képet, videót, hangot - egy "lényeg ujjlenyomattá" alakítasz. Ez az ujjlenyomat egy számokból álló lista, amit vektornak hívunk.

Példa:

🐱 Egy macskás kép → Számokká alakul: [0.8, 0.2, 0.9, 0.1, ...]
🐶 Egy kutyás kép → Számokká alakul: [0.3, 0.7, 0.2, 0.8, ...]
🐯 Egy tigris kép → Számokká alakul: [0.7, 0.3, 0.85, 0.15, ...]

Valahogy így néz ki egy vektor adatbázis: a hasonló dolgok (macskák, tigrisek) közel vannak egymáshoz a térben. Készült: Nano Banana

Figyeld meg: A macska és a tigris hasonló számokat kapott, mert mindkettő macskafélék. A kutya más számokat kapott, mert az kutya. (a számok csak illusztrációk a példa kedvéért)

Hogyan működik a keresés?

1️⃣ Keresési kérdésed is vektorrá alakul
Ha azt írod: "aranyos macska", akkor ez a szöveg is számokká alakul: [0.75, 0.25, 0.88, 0.12, ...]

2️⃣ A rendszer megkeresi a hasonló vektorokat
A vektor adatbázis összeméri a te keresésed számait az összes többi dolog számával. Nem pontos egyezést keres, hanem hasonlóságot.

3️⃣ Visszaadja a leghasonlóbb eredményeket
Mivel a "macska" szöveg és a macskás képek hasonló számokat kaptak, a rendszer megtalálja őket - még akkor is, ha nem írtad be pontosan a "macska" szót.

Konkrét példa az életből:

Ha egy vállalat saját dokumentumait akarja, hogy a ChatGPT ismerje (szerződések, kézikönyvek, belső adatok), akkor RAG (Retrieval Augmented Generation) rendszert épít:

  1. Dokumentumok vektorrá alakulnak és egy vektor adatbázisba kerülnek

  2. Kérdezed: "Mi a cég szabadság policy-ja?"

  3. Vektor adatbázis keres: megtalálja a releváns dokumentumokat szemantikai hasonlóság alapján

  4. ChatGPT megkapja: az eredeti kérdésed + a releváns dokumentumokat kontextusként

  5. ChatGPT válaszol: a dokumentumok alapján, pontos és aktuális információval

Miért forradalmi ez?

🔹 Szemantikai keresés: Nem csak a pontos szót keresi, hanem a jelentést. "Mobil" = "Telefon" = "Okostelefon" = mind ugyanaz szemantikailag.

🔹 Multimodális: Képeket, szövegeket, hangokat együtt tud keresni.

🔹 Gyors és skálázható: Millió vagy milliárd adat között is gyorsan keres.

🔹 AI "hosszú távú memóriája": Az LLM-ek (ChatGPT, Gemini, Claude) statikusak és elfelejtik a beszélgetést. A vektor adatbázis külső memóriaként szolgál, amely megőrzi és visszahozza a releváns információkat.

Összefoglalva:

A modern AI alkalmazások (chatbotok, keresők, ajánlórendszerek) mind RAG rendszereket használnak: vektor adatbázis + LLM kombinációja teszi lehetővé, hogy az AI naprakész, pontos és releváns válaszokat adjon.

💰 OpenAI és AWS: 38 milliárd dolláros, 7 éves mega-deal

Az OpenAI 38 milliárd dolláros, 7 évre szóló szerződést kötött az AWS-sel. A deal keretében százezer NVIDIA GPU és tízmillió CPU áll az OpenAI rendelkezésére, hogy a ChatGPT-t futtassa és a következő generációs AI modelleket betanítsa. Az AWS Amazon EC2 UltraServers technológiája alacsony késleltetésű, nagy teljesítményű klasztereket biztosít.

🎯 Miért fontos?
Ez a legnagyobb AI infrastruktúra üzlet a történelemben. Az OpenAI korábban a Microsoft Azure-ra támaszkodott - ez a deal viszont diverzifikációt jelent, és bizonyítja, hogy az AI versenyben a cloud infrastruktúra a kritikus tényező. Az AWS ezzel az üzlettel az AI háború központjába került.

🆓 Kimi AI – Ingyenes, nyílt forráskódú AI

A Kimi K2 teljesen ingyenes és nyílt forráskódú – bárki letöltheti, testreszabhatja és integrálhatja saját rendszerébe. Moduláris architektúrával, többnyelvű támogatással és fejlesztői API-kkal érkezik.

👉 Próbáld ki és írd meg a véleményed: Kimi2

🧠 Transformer modellek: A modern AI agya

A transformer az a neurális hálózati architektúra, ami mögött a ChatGPT, Gemini, BERT és GPT modellek állnak. A self-attention (önfigyelő) mechanizmus teszi lehetővé, hogy egyszerre vegye figyelembe a teljes input szekvenciát - így hosszú távú összefüggéseket is megért.

Főbb komponensek:
1️⃣ Input embeddings - tokenek átalakítása numerikus vektorokká
2️⃣ Pozíciós kódolás - megtartja a sorrendi információt
3️⃣ Transformer blokkok - önfigyelő + feed-forward réteg
4️⃣ Lineáris illesztő réteg + softmax - végső predikció

Típusok:
🔹 BERT - kétirányú enkóder (szövegértelmezés)
🔹 GPT - generatív autoregresszív dekóder (szöveggenerálás)
🔹 BART - enkóder + dekóder kombináció
🔹 Vision Transformers (ViT) - képosztályozáshoz

📬 A Te ötleted is bekerülhet

💬 Használod az AI-t okosan? Küldd el a tipped, trükköd vagy kedvenc eszközöd. A legjobbak bekerülnek a következő hírlevélbe a neveddel együtt!

📨 Csak válaszolj erre az emailre.

Legyen további szép napod!

Gergő | Hello AI

Reply

or to participate.