- Hello AI
- Posts
- 🤯 Apple 1 milliárdot fizet a Google-nak
🤯 Apple 1 milliárdot fizet a Google-nak
Apple és Google nagy dobása: Siri mostantól Gemini AI-val erősít, évi 1 milliárd dolláros üzletben, amely forradalmasíthatja a digitális asszisztensek világát.
Szia! 👋
Ezen a héten két óriási bejelentés rázta meg a tech világot. Az Apple 1 milliárd dollárt fizet évente a Google-nak, az OpenAI pedig 38 milliárd dollárért kötött infrastruktúra üzletet az AWS-sel. Értsd meg a vektor adatbázist egyszerűen!
📰 Ma a Hello AI-ban:
📌 Gemini x Siri - ⏱️ 1,5 perc
📌 Vektor adatbázis - ⏱️ 1,5 perc
📌 Openai + AWS - ⏱️ 55 mp
📌 Kimi AI - ⏱️ 15 mp
📌 Transformer - ⏱️ 40 mp
💼 Apple 1 milliárd dollárt fizet évente a Google-nak a Siri-ért
Az Apple évente körülbelül 1 milliárd dollárt fog fizetni a Google-nak azért, hogy a Gemini AI modellt integrálja a Siri-be. A cél? Hogy a Siri végre versenyképes legyen az Alexa és a Google Assistant mellett. A Gemini egy új generációs, nagy teljesítményű nyelvi modell, amely képes komplexebb és természetesebb nyelvi interakciókra.
🎯 Miért fontos?
Ez az Apple beismerése, hogy saját AI fejlesztései nem tartanak lépést a versennyel. A Siri mostanáig lemaradt, de a Gemini integrációval teljesen új képességeket kaphat és ez jelzi, hogy a techóriások kényszerűen együttműködnek az AI versenyben, még a konkurensek is.
💻 Mi az a vektor adatbázis?
Képzeld el, hogy van egy hatalmas könyvtárad. Tele van könyvekkel, képekkel, videókkal, hangfelvételekkel. Most meg akarsz találni valamit ebben a könyvtárban.
A hagyományos módszer (régi adatbázisok):
Egy régi könyvtárban betűrend szerint keresed a könyveket. Ha "Macska" című könyvet keresel, akkor az "M" betűhöz mész. Ez egy táblázat, sorok és oszlopok. Pontos egyezés kell: ha azt írtad "Macska", akkor csak a "Macska" című könyvet találod meg, a "Cica" vagy "Kandúr" című könyveket nem.
A probléma?
Mi van akkor, ha nem emlékszel a pontos címre? Mi van, ha képet keresel? Vagy egy videót, ahol macskák vannak? Vagy egy hangfelvételt macska nyávogásról? A régi módszer itt leáll. Nem tudod keresni azt, ami nincs szövegként megírva.
Vektor adatbázis: Az új generáció
Most képzeld el, hogy minden dolgot a könyvtáradban - könyvet, képet, videót, hangot - egy "lényeg ujjlenyomattá" alakítasz. Ez az ujjlenyomat egy számokból álló lista, amit vektornak hívunk.
Példa:
🐱 Egy macskás kép → Számokká alakul: [0.8, 0.2, 0.9, 0.1, ...]
🐶 Egy kutyás kép → Számokká alakul: [0.3, 0.7, 0.2, 0.8, ...]
🐯 Egy tigris kép → Számokká alakul: [0.7, 0.3, 0.85, 0.15, ...]

Valahogy így néz ki egy vektor adatbázis: a hasonló dolgok (macskák, tigrisek) közel vannak egymáshoz a térben. Készült: Nano Banana
Figyeld meg: A macska és a tigris hasonló számokat kapott, mert mindkettő macskafélék. A kutya más számokat kapott, mert az kutya. (a számok csak illusztrációk a példa kedvéért)
Hogyan működik a keresés?
1️⃣ Keresési kérdésed is vektorrá alakul
Ha azt írod: "aranyos macska", akkor ez a szöveg is számokká alakul: [0.75, 0.25, 0.88, 0.12, ...]
2️⃣ A rendszer megkeresi a hasonló vektorokat
A vektor adatbázis összeméri a te keresésed számait az összes többi dolog számával. Nem pontos egyezést keres, hanem hasonlóságot.
3️⃣ Visszaadja a leghasonlóbb eredményeket
Mivel a "macska" szöveg és a macskás képek hasonló számokat kaptak, a rendszer megtalálja őket - még akkor is, ha nem írtad be pontosan a "macska" szót.
Konkrét példa az életből:
Ha egy vállalat saját dokumentumait akarja, hogy a ChatGPT ismerje (szerződések, kézikönyvek, belső adatok), akkor RAG (Retrieval Augmented Generation) rendszert épít:
Dokumentumok vektorrá alakulnak és egy vektor adatbázisba kerülnek
Kérdezed: "Mi a cég szabadság policy-ja?"
Vektor adatbázis keres: megtalálja a releváns dokumentumokat szemantikai hasonlóság alapján
ChatGPT megkapja: az eredeti kérdésed + a releváns dokumentumokat kontextusként
ChatGPT válaszol: a dokumentumok alapján, pontos és aktuális információval
Miért forradalmi ez?
🔹 Szemantikai keresés: Nem csak a pontos szót keresi, hanem a jelentést. "Mobil" = "Telefon" = "Okostelefon" = mind ugyanaz szemantikailag.
🔹 Multimodális: Képeket, szövegeket, hangokat együtt tud keresni.
🔹 Gyors és skálázható: Millió vagy milliárd adat között is gyorsan keres.
🔹 AI "hosszú távú memóriája": Az LLM-ek (ChatGPT, Gemini, Claude) statikusak és elfelejtik a beszélgetést. A vektor adatbázis külső memóriaként szolgál, amely megőrzi és visszahozza a releváns információkat.
Összefoglalva:
A modern AI alkalmazások (chatbotok, keresők, ajánlórendszerek) mind RAG rendszereket használnak: vektor adatbázis + LLM kombinációja teszi lehetővé, hogy az AI naprakész, pontos és releváns válaszokat adjon.
💰 OpenAI és AWS: 38 milliárd dolláros, 7 éves mega-deal
Az OpenAI 38 milliárd dolláros, 7 évre szóló szerződést kötött az AWS-sel. A deal keretében százezer NVIDIA GPU és tízmillió CPU áll az OpenAI rendelkezésére, hogy a ChatGPT-t futtassa és a következő generációs AI modelleket betanítsa. Az AWS Amazon EC2 UltraServers technológiája alacsony késleltetésű, nagy teljesítményű klasztereket biztosít.
🎯 Miért fontos?
Ez a legnagyobb AI infrastruktúra üzlet a történelemben. Az OpenAI korábban a Microsoft Azure-ra támaszkodott - ez a deal viszont diverzifikációt jelent, és bizonyítja, hogy az AI versenyben a cloud infrastruktúra a kritikus tényező. Az AWS ezzel az üzlettel az AI háború központjába került.
🆓 Kimi AI – Ingyenes, nyílt forráskódú AI
A Kimi K2 teljesen ingyenes és nyílt forráskódú – bárki letöltheti, testreszabhatja és integrálhatja saját rendszerébe. Moduláris architektúrával, többnyelvű támogatással és fejlesztői API-kkal érkezik.
👉 Próbáld ki és írd meg a véleményed: Kimi2
🧠 Transformer modellek: A modern AI agya
A transformer az a neurális hálózati architektúra, ami mögött a ChatGPT, Gemini, BERT és GPT modellek állnak. A self-attention (önfigyelő) mechanizmus teszi lehetővé, hogy egyszerre vegye figyelembe a teljes input szekvenciát - így hosszú távú összefüggéseket is megért.
Főbb komponensek:
1️⃣ Input embeddings - tokenek átalakítása numerikus vektorokká
2️⃣ Pozíciós kódolás - megtartja a sorrendi információt
3️⃣ Transformer blokkok - önfigyelő + feed-forward réteg
4️⃣ Lineáris illesztő réteg + softmax - végső predikció
Típusok:
🔹 BERT - kétirányú enkóder (szövegértelmezés)
🔹 GPT - generatív autoregresszív dekóder (szöveggenerálás)
🔹 BART - enkóder + dekóder kombináció
🔹 Vision Transformers (ViT) - képosztályozáshoz
📬 A Te ötleted is bekerülhet
💬 Használod az AI-t okosan? Küldd el a tipped, trükköd vagy kedvenc eszközöd. A legjobbak bekerülnek a következő hírlevélbe a neveddel együtt!
📨 Csak válaszolj erre az emailre.
Legyen további szép napod!
Gergő | Hello AI
Reply