Ist bei euch auch in den letzten Tagen auf Facebook, WhatsApp und Co. die „Meta AI“ aufgetaucht? Die KI von Marc Zuckerberg landet nun auch bei uns.
Künstliche Intelligenz ist längst kein Science-Fiction-Stoff mehr, sondern Teil unseres digitalen Alltags. Ob beim Chatten, Shoppen oder beim Scrollen durch Reels – KI ist da. Und eine der spannendsten Entwicklungen in diesem Bereich kommt von einem Unternehmen, das wir alle kennen: Meta. Genau, die Facebook-Macher. Und mit Meta AI wollen sie die nächste Stufe der intelligenten Interaktion zünden. Doch was genau ist Meta AI eigentlich? Wie funktioniert sie, und was macht sie besonders?
Eine kleine Zeitreise: Von FAIR zu Meta AI
Starten wir mit einem Sprung ins Jahr 2013: Facebook gründet damals ein internes Forschungsteam für künstliche Intelligenz namens FAIR – Facebook Artificial Intelligence Research. Der Kopf dahinter? Kein Geringerer als Yann LeCun, einer der Väter moderner KI und späterer Turing Award-Gewinner.
Mit dem großen Markenwandel zu Meta im Jahr 2021 wurde aus FAIR schließlich Meta AI. Der Fokus lag nun nicht nur auf smarter Werbung oder Content-Moderation, sondern auf echten Zukunftstechnologien – Stichwort: Metaverse.
Das Herzstück: LLaMA – nicht das Tier 🦙, sondern das Modell
Meta AI hat mittlerweile eine eigene Modellfamilie entwickelt: LLaMA, kurz für Large Language Model Meta AI. Diese Sprachmodelle sind das Rückgrat vieler KI-Anwendungen bei Meta. Hier ein kurzer Überblick:
- LLaMA 1 kam Anfang 2023 und sorgte für Aufsehen mit seiner offenen Veröffentlichung.
- LLaMA 2 folgte im Juli 2023 – deutlich leistungsfähiger und öffentlich zugänglich unter einer Open-Source-ähnlichen Lizenz.
- LLaMA 3 landete im April 2024, mit Varianten von 8 bis 70 Milliarden Parametern. Eine XXL-Version mit 405 Milliarden Parametern ist bereits angekündigt.
- LLaMA 4 (2025 in Vorbereitung) soll mit einer „Mixture of Experts“-Architektur noch smarter werden. Dabei entscheiden spezialisierte Mini-Modelle je nach Anfrage, wer von ihnen antwortet – Teamwork auf KI-Art also.
👉 Mehr dazu hier: Zapier über LLaMA
Multimodal, multitalentiert
Was Meta AI besonders spannend macht: Sie ist multimodal. Heißt konkret: Sie kann nicht nur mit Text umgehen, sondern auch Bilder und Sprache verstehen. Praktisch zum Beispiel in den neuen Ray-Ban Meta Smart Glasses, mit denen du Meta AI einfach etwas fragen oder ein Foto analysieren lassen kannst. Auch in der VR-Brille Meta Quest steckt die KI schon drin. Zukunftsmusik? Nicht mehr.
Datenschutz? Schwierig, aber wichtig.
Wie so oft bei Meta stellt sich natürlich die Frage: Was passiert mit meinen Daten? Meta AI wird mit öffentlich verfügbaren Texten und Bildern trainiert – darunter Inhalte aus dem Netz, aber auch von Plattformen wie Facebook oder Instagram. In Europa verspricht Meta immerhin: Nutzer:innen können beantragen, dass ihre Inhalte nicht fürs Training verwendet werden.
Transparenz sieht anders aus, aber immerhin gibt’s eine Möglichkeit zur Datenkontrolle.
👉 Details findest du bei Axios
Was macht Meta AI so besonders?
Zum Abschluss eine kleine Zusammenfassung, warum Meta AI mehr ist als ein neues Buzzword:
✅ Open Source-Vibes: Besonders LLaMA 2 & 3 stehen Entwickler:innen offen zur Verfügung
✅ Multimodalität: Text, Bild, Audio – alles in einem Modell
✅ Produktintegration: KI, direkt in Brillen, Apps und VR
✅ Forschung trifft Praxis: Meta AI ist nicht nur ein Laborexperiment, sondern live im Einsatz
Meta AI bleibt spannend
Ob Meta AI die Welt rettet oder nur besser weiß, welche Werbung du sehen willst – das wird sich zeigen. Sicher ist: Die Technologien dahinter sind beeindruckend, mächtig und verdienen unsere Aufmerksamkeit. Für alle, die sich für die Zukunft der digitalen Arbeit interessieren, ist es definitiv ein Thema zum Dranbleiben.