24. Mai 2024

KI News vom 24.05.2024

.

Brandheiße News aus der Welt der Künstlichen Intelligenz.

Hallo zusammen, es ist wieder Zeit für aktuelle und spannende News aus der Welt der Künstlichen Intelligenz!

1. Neue KI-Technologien auf Google I/O 2024 Konferenz vorgestellt

Die Google I/O 2024, präsentiert von CEO Sundar Pichai, begeistert die Tech-Welt mit beeindruckenden Ankündigungen und wegweisenden Innovationen. Der Schwerpunkt der diesjährigen Konferenz lag auf der Einführung folgender neuer KI-Technologien:

Die Einführung von Gemini 1.5
Im Mittelpunkt der Präsentation stand die Einführung von Gemini 1.5, Googles fortschrittlichstem multimodalen KI-Modell.
Dieses Modell kann verschiedene Datenformate wie Text, Bilder und Audio verarbeiten und ist bereits in mehreren Google-Produkten integriert. 
Gemini 1.5 verbessert die Präzision und Effizienz der Google-Suche erheblich, indem es kontextuell relevante Ergebnisse liefert und die Benutzererfahrung optimiert.
Die fortschrittlichste Version des Modells Gemini 1.5 Pro kann bis zu eine Million Token in einem einzigen Anfragefenster verarbeiten und es ist sogar die Rede davon, das Kontextfenster auf 2 Millionen Token zu erhöhen. 
Diese Fähigkeit eröffnet neue Möglichkeiten für Entwickler und Unternehmen, indem sie große Datenmengen effizient analysieren und verarbeiten können. Beispielsweise können damit 1,5 Mio Wörter oder hunderte Seiten von Text, mehrere Stunden Audio bzw. eine Stunde Video oder sogar ganze Code Repos (mit mehr als 100.000 Zeilen Code) direkt verarbeitet werden. 
In Tests zeigte Gemini 1.5 Pro herausragende Fähigkeiten, selbst winzige Informationen in großen Datenblöcken präzise zu identifizieren. 
Das Modell wurde auch in Bezug auf Coding, Übersetzung bzw. Argumentation qualitativ verbessert.

Projekt Astra und Gemini 1.5 Flash

Neben Gemini 1.5 Pro hat Google auch das Projekt Astra vorgestellt, eine Initiative, die auf die zukünftige Entwicklung von KI abzielt. 
Dabei handelt es sich um eine KI-App, die visuelle und akustische Informationen in Echtzeit verarbeitet und Fragen zur unmittelbaren Umgebung beantwortet. 
Die App kann Objekte erkennen, benennen und sich an bereits gesehene Gegenstände erinnern, selbst wenn diese nicht mehr im Bild sind. Sie kombiniert Video- und Spracheingaben, um Informationen effizient zu speichern und abzurufen. 
Google hat auch die natürliche Sprachausgabe seiner KI verbessert. 
Projekt Astra befindet sich noch in der Entwicklungsphase, jedoch sollen einige Funktionen noch in diesem Jahr in Google-Dienste integriert werden.

Zudem gibt es Gemini 1.5 Flash, ein leichteres Modell, das speziell für Geschwindigkeit und Effizienz entwickelt wurde. 
Dieses Modell soll für Entwickler erschwinglicher als die Pro-Version sein. 
Gemini 1.5 Flash kann umfangreiche Dokumente und Code analysieren und liegt leistungsmäßig zwischen dem Gemini 1.5 Pro und dem kleinsten Modell, dem Gemini 1.5 Nano. 
Die neuen Modelle sind für Entwickler konzipiert, die auf Googles Plattformen eigene KI-Anwendungen entwickeln möchten.

Fortschritte in der Google-Suche und Google Fotos

Eine der bemerkenswertesten Erneuerungen ist die KI-basierte Google-Suche, die eine schnellere und genauere Informationsverarbeitung ermöglicht und über die normale Webseitensuche hinausgeht.
Die KI generiert Antworten mit relevanten Links zu den Quellen aus dem Internet, um den Nutzer:innen tiefgreifende Informationen auf Anfragen geben zu können und stellt diese in einer KI-Übersicht zusammen.
Das Gemini KI Modell unterstützt dabei längere u. komplexere Fragestellungen verstehen und beantworten zu können und die Google Suche ist dadurch sogar in der Lage gesamte Essenspläne zu erstellen bzw. Urlaube zu planen.
Zudem soll die Google Suche auch eine Funktionalität zur Analyse von Videos enthalten. So können bspw. Probleme mit technischen Geräten wie einem Plattenspieler an die Google Suche gesendet werden u. die KI generiert eine Schritt für Schritt Anleitung zur Lösung des Problems.

Darüber hinaus revolutioniert die neue Funktion „Ask Photos“ (in deutsch "Google Fotos fragen") in Google Fotos die Art und Weise, wie Nutzer mit ihren Bildern interagieren können. 
Diese Funktion ermöglicht es, Fragen zu Bildern zu stellen und detaillierte Informationen oder Erinnerungen zu extrahieren, was die Nutzung digitaler Erinnerungen erheblich erleichtert.
Beispielsweise können Fotos nach Nummernschildern mit KI durchsucht oder tiefere Erinnerungen abgefragt werden wie z.B. Wann hat jemand schwimmen gelernt oder wie hat die Person sich bzgl. schwimmen entwickelt. 
Das Gemini Modell erkennt verschiedene Kontexte (z.B. Schwimmen in Bahnen, schnorcheln im Meer) u. kann die entsprechenden Fotos in einer zeitlichen Reihenfolge zusammenstellen.   

Verantwortungsvoller Umgang mit KI
Sundar Pichai betonte in seiner Rede, dass Google großen Wert auf einen verantwortungsvollen Umgang mit KI legt. 
Sicherheits- und Ethiktests sind integrale Bestandteile der Entwicklung, um sicherzustellen, dass die KI-Technologien sicher und fair eingesetzt werden. 
Diese Verpflichtung zeigt sich auch in der kontinuierlichen Entwicklung neuer Sicherheitsprotokolle und Ethikrichtlinien, 
die darauf abzielen, potenzielle Schäden zu minimieren und die Vorteile der KI für alle zugänglich zu machen

Die Zukunft von KI bei Google

Die Google I/O 2024 hat eindrucksvoll gezeigt, wie Google durch technologische Innovationen die Zukunft gestaltet. 
Mit Gemini 1.5 und seinen verschiedenen Varianten hat Google die Messlatte für KI-Anwendungen deutlich höher gelegt. 
Diese Entwicklungen versprechen, das tägliche Leben durch effizientere und intelligentere Technologien zu verbessern und gleichzeitig neue Möglichkeiten für Entwickler und Unternehmen zu schaffen.

Detailinformationen zu diesen neuartigen Innovationen findet ihr unter 

blog.google  
Engadget   
Gadgets 360 
Google Blog Post   
und auf Computer Bild:

Artikel 1  
Artikel 2 

 

2. Google veröffentlicht zudem Imagen 3

Google DeepMinds neueste Innovation, Imagen 3, ist das neueste Text-zu-Bild-Modell, das neue Maßstäbe in Detailgenauigkeit, Beleuchtung und Realismus setzt. Aufbauend auf den Erfolgen seiner Vorgänger bietet Imagen 3 eine verbesserte Verständnisfähigkeit für Eingaben, was es einfacher denn je macht, vielfältige visuelle Stile zu erzeugen und komplizierte Details aus komplexen Anweisungen darzustellen.

Hauptmerkmale von Imagen 3: 

Verbesserte Detailtreue und Realismus 
Imagen 3 glänzt durch die Erstellung von hochwertigen Bildern mit reicher Beleuchtung und minimalen Artefakten. 
Es kann feine Details wie die Falten auf einer Hand oder die Textur eines gestrickten Elefanten darstellen, was eine zuvor unerreichbare visuelle Treue bietet.

Vielseitige Bildgenerierung
Das Modell ist darauf ausgelegt, eine Vielzahl von visuellen Stilen zu bewältigen, von fotorealistischen Landschaften bis hin zu verspielten Knetanimationen. Diese Vielseitigkeit stellt sicher, dass Benutzer Bilder erzeugen können, die ihren spezifischen Bedürfnissen entsprechen, sei es für professionelle oder kreative Zwecke.

Natürliche Sprachverarbeitung
Eine der herausragenden Verbesserungen in Imagen 3 ist die Fähigkeit, Eingaben in Alltagssprache zu verstehen. Diese Funktion reduziert die Notwendigkeit komplexer Eingabesteuerung, sodass Benutzer ihre gewünschten Bilder intuitiver beschreiben und dennoch präzise Ergebnisse erzielen können.

Mehrere Versionen für unterschiedliche Aufgaben
Imagen 3 ist in mehreren Versionen erhältlich, die jeweils für unterschiedliche Aufgaben optimiert sind. 
Ob schnelle Skizzen oder hochauflösende Bilder benötigt werden, es gibt eine Version von Imagen 3, die auf die jeweilige Anforderung optimiert ist.

Verbesserte Texterstellung
Die Texterstellung des Modells wurde erheblich verbessert, womit die Generierung stilisierter Texte für Geburtstagskarten, bzw. Präsentationen vereinfacht wird.

 Sicherheit und Verantwortung

Google DeepMind hat die neuesten Sicherheits- und Verantwortlichkeitsinnovationen in Imagen 3 integriert. 
Umfangreiche Filterung und Datenbeschriftung minimieren schädliche Inhalte, während strenge Tests und Bewertungen Themen wie Fairness, Voreingenommenheit und Inhaltssicherheit adressieren. 
Zudem nutzt Imagen 3 SynthID, ein Wasserzeichentool, das ein unsichtbares digitales Wasserzeichen in Bilder einfügt, um deren Identifikation und Überprüfung zu erleichtern.

Verfügbarkeit

Derzeit ist Imagen 3 nur für ausgewählte Kreative in einer privaten Vorschau über ImageFX verfügbar, jedoch wird die Reichweite bald auf verschiedene Google-Produkte wie die Gemini-App, Workspace und Ads erweitert werden. Benutzer können sich anmelden, um auf die Warteliste zu gelangen und die Zukunft der Text-zu-Bild-Generierung zu erleben.

Fazit

Imagen 3 stellt einen bedeutenden Fortschritt in der KI-gesteuerten Bilderzeugung dar und bietet unvergleichliche Detailgenauigkeit, 
Vielseitigkeit und benutzerfreundliche Funktionen. Durch die Integration fortschrittlicher Sicherheitsmaßnahmen ist es nicht nur leistungsstark, sondern auch verantwortungsvoll und sicher. 
Während Google DeepMind weiterhin Innovationen vorantreibt, ist Imagen 3 ein Beweis für das Potenzial der KI, kreative und professionelle Arbeitsabläufe zu transformieren.

Für weitere Informationen, zur Anmeldung für die Vorschau bzw. für Beispiele zu Imagen 3 besucht Google DeepMinds Imagen 3 Seite.
bzw. den folgenden Google Blog Post

 

3. Microsoft stellt neue CoPilot+ PCs und KI-Funktionen auf seiner Build 2024 Konferenz vor

Auch Microsoft hat auf seiner Build 2024 Konferenz in Seattle diese Woche u.a. mit Firmenchef Satya Nadella in der Keynote einige beeindruckende neue KI-Funktionen und Hardware vorgestellt. 

neue Hardware:

CoPilot+ PCs: 

Diese neuen PCs sind mit dem Snapdragon X Elite Chip, mindestens 16 GB RAM u. 256 GB Plattenspeicher bestückt u. enthalten eine spezielle NPU (Neural Processing Units), die mindestens 40 TOPs (Trillion Operations per Second) (bzw. 40 Bllionen Operationen pro Sekunde) leisten und es ermöglichen, KI-Berechnungen jetzt lokal durchzuführen. 
Dies sorgt für schnellere Verarbeitung und höhere Datensicherheit, da persönliche Daten nicht in die Cloud übertragen werden müssen. 
Hersteller wie Dell, Acer, HP, ASUS und Lenovo werden diese Geräte anbieten.

Surface-Modelle: 

Auch die neuen Surface-Laptops und -Tablets basieren auf dem Snapdragon X Elite Chipsatz, bieten eine bis zu 86% schnellere Leistung als die Vorgängermodelle und eine verlängerte Akkulaufzeit von bis zu 22 Stunden Videowiedergabe. Die Geräte sind zudem mit einem nicht reflektierenden Bildschirm, einer Weitwinkelkamera und verbesserten AI-Funktionen ausgestattet, die Videoanrufe optimieren

neue KI-Funktionalitäten:        

Windows Copilot: 

Der neue KI-Assistent ist tief in Windows 11 integriert und bietet Funktionen wie Textgenerierung, Bildbearbeitung und die Zusammenfassung von Webseiten. Copilot unterstützt auch Drittanbieter-Plugins, was die Funktionalität erweitert und Entwicklern ermöglicht, ihre Apps einfach zu integrieren. Weiterhin soll Copilot auch Tipps beim Spielen geben können. Als Demo wurde auf der Build 2024 Konferenz Minecraft gezeigt, bei der die Bildschirmausgaben von der KI in Echtzeit aufgenommen wurden u. den Spieler:innen 
Ratschläge gegeben wurden, was sie in der aktuellen Situation am besten tun können.

Team Copilot: 

Für Microsoft 365 Nutzer kündigt Satya Nadella Team Copilot an, eine Erweiterung des Copilot-Chatbots. Mit diesem KI-Assistenten können Fragen aus dem Kontext beantwortet, Agenden u. Notizen verwaltet, sowie Kommentare geschrieben werden. Zudem sollen Interaktionen in Gruppen-Chats sowie Videomeetings ermöglicht werden.

Im Laufe des Jahres soll für Kunden mit Microsoft 365 Abbonoment der Team Copilot via Preview verfügbar sein.  

Github Copilot: 

Mit den neuen Github Copilot Extensions können Entwickler den Copilot mit Fähigkeiten von Drittanbietern erweitern. Partner sind bspw. DataStax, Docker, Octopus Deploy, Sentry, Microsoft Azure u. Teams u. weitere. Entwickler können in natürlicher Sprache programmieren u. mit diesen Systemen interagieren. So können bspw. Sentry Benutzer Probleme mit Deplyoment Pipelines in natürlicher Sprache lösen u. Entwickler die DataStax einsetzen mit der Datenbank interagieren. 
Die Extensions sollen zukünftig im Github Marketplace verfügbar sein, die Entwickler sollen aber auch in der Lage sein ihre private Erweiterungen selbst erstellen zu können.  Aktuell befinden sich die Github Copilot Extensions noch in der privaten Vorschau

neue LLM in Azure AI Studio: 

Das neue multimodale Modell GPT-4o von OpenAI ist künftig auch in Azure AI Studio verfügbar, welches Bilder, Video, Audio u. Text nativ zugleich verarbeiten kann. Weiterhin soll das von Microsoft selbst erstellte Modell Phi-3 Vision verfügbar sein, ein Small Language Model (SLM), welches für persönliche Geräte optimiert ist. Mit diesem Modell können Bilder u. Texte eingegeben werden, jedoch gibt es nur Text als Antwort zurück. Im Azure Playground können Entwickler bereits mit diesem Modell experimentieren.

AI Explorer bzw. Recall: 

Eine kontroverse neue Funktionen ist der AI Explorer, auch bekannt als Recall.
Diese Funktion ermöglicht es Nutzern, jede vergangene Aktion auf ihrem PC zu durchsuchen und relevante Informationen basierend auf natürlichen Spracheingaben abzurufen, da diese laut Microsoft durch Momentaufnahmen (Screenshots) lokal verschlüsselt und mit dem Benutzerprofil verknüpft gespeichert werden. 
Es sollen Screenshots beim Verwenden von Apps, beim Surfen im Internet bzw. beim Anschauen von Videos erstellt werden.  
Anstatt manuell durch vergangene Aktivitäten zu scrollen, können Nutzer dann spezifische Momente suchen, wie z.B. "Finde die roten Sneaker nach den ich gesucht habe" oder "Zeig mir alles über Apfelkuchen-Rezepte", und der AI Explorer wird relevante Inhalte dazu anzuzeigen.         
Microsoft muss hier allerdings sicherstellen, dass keine Datenschutzprobleme entstehen, wie etwa die Aufzeichnung privater Fotos, Kennwörter bei der Eingabe in Webseiten usw. und das die Funktion den DSGVO Normen entspricht.  
Auch verlangt diese Funktion einen erheblichen Speicherplatz auf der Festplatte (mindestens 25GB) um die Daten mindestens 3 Monate vorhalten zu können.

Die Funktion wird voraussichtlich Teil des Windows 11 24 H2 Updates sein und wahrscheinlich nur Benutzern zur Verfügung stehen, welche PCs bzw. Notebooks besitzen, die den Snapdragon X Elite Chip verwenden.  

Edge Übersetzungen u. KI-Copy & Paste:  

Im Microsoft Edge Browser können Transkripte bzw. Synchronisationen von Videos von LinkedIn bzw. auch Youtube nun in Echtzeit übersetzt werden (bisher nur wenige Sprachen wie Englisch, Spanisch, Deutsch verfügbar) und die Kopieren + Einfügen Funktion wird mit KI-Funktionalität unterstützt. So können Inhalte aus der Zwischenablage vor dem Einfügen durch KI konvertiert u. modifiziert werden (bspw. Einfügen als JSON, Markdown oder als Klartext möglich). Für die Nutzung ist jedoch ein OpenAI-Konto mit OpenAI-Api Key notwendig                     

Microsoft betont, dass die neuen KI-Funktionen darauf abzielen, die Bedürfnisse der Nutzer vorherzusehen und die Produktivität zu steigern. Die Integration von KI in den täglichen Arbeitsablauf soll die Benutzererfahrung verbessern und effizienter gestalten.

Für Detailinformationen zu allen Neuigkeiten von der Microsoft Build 2024 Keynote besucht die Artikel und Seiten von: 
Artikel Futurzone 
Artikel Gizmodo   
Windows Central 
Windows Latest 
Artikel Investopedia 
Artikel Techcrunch 
Artikel Computerwoche 

Die komplette Keynote der Microsoft Build 2024 Konferenz könnt ihr auf Youtube finden.

 

4. Claude von Antrophic ist jetzt in Europa verfügbar

Anthropics Chatbot Claude, der hochentwickelte KI-Assistent, ist nun in ganz Europa verfügbar. 
Dieser Schritt markiert einen bedeutenden Meilenstein für Anthropic und eröffnet europäischen Nutzern und Unternehmen neue Möglichkeiten, die Leistungsfähigkeit von Claude zu nutzen. 
Claude ist dafür bekannt, komplexe Sprachverarbeitungsaufgaben mit einer bemerkenswerten Genauigkeit und Effizienz zu bewältigen.

Claude kann über folgende Möglichkeiten genutzt werden: 

a) Claude.ai, die webbasierte Version des KI-Chatbots
b) Claude-App für IOS, die mobile Version für Apple Geräten
c) Claude Team Plan, für Unternehmen   

Vorteile für Europäische Nutzer

Mehrsprachige Unterstützung: 

Claude versteht und antwortet in mehreren europäischen Sprachen, wie bspw. Deutsch, Italienisch, Französisch, Spanisch u. weitere,
was die Nutzung für eine breite Zielgruppe vereinfacht.

Erweiterte Funktionen: 

Für diejenigen, die noch mehr aus Claude herausholen möchten, bietet Anthropic den Claude Pro-Plan für 18 € pro Monat an. 
Dieser Plan bietet erweiterte Funktionen und zusätzliche Nutzungsmöglichkeiten inklusive Freischaltung aller Claude Modelle, 

unter anderem auch Claude 3 Opus dem fortschrittlichsten Claude Modell.

Unternehmenslösungen: 

Unternehmen können von Claude's Team-Plan profitieren (28€ pro Nutzer u. Monat u. mind. 5 Nutzer), der speziell für geschäftliche Anforderungen entwickelt wurde. Dieser Plan bietet zusätzliche Sicherheit und erweiterte KI-Funktionen, die speziell auf die Bedürfnisse von Unternehmen zugeschnitten sind.

Claude's Einführung in Europa ist Teil von Anthropics Mission, verantwortungsbewusste und sichere KI-Lösungen weltweit zugänglich zu machen. Claude wird kontinuierlich weiterentwickelt, um den sich ständig ändernden Anforderungen gerecht zu werden und neue innovative Funktionen bereitzustellen. Die Verfügbarkeit von Claude in Europa eröffnet eine Vielzahl von Möglichkeiten für Privatpersonen und Unternehmen gleichermaßen. Mit seiner Fähigkeit, mehrsprachige Anfragen zu verarbeiten und seine benutzerfreundlichen Plattformen, stellt Claude einen bedeutenden Fortschritt in der Nutzung von KI im Alltag und im Geschäftsleben dar. 

Mehr über Claude und seine Funktionen erfahrt ihr auf der Anthropic-Website

5. Tik Tok nutzt Ki generierte Suchergebnisses für bessere Nutzererfahrung

TikTok, die beliebte Social-Media-Plattform, macht erneut Schlagzeilen mit einer neuen Innovation: 
der Einführung von KI-generierten Suchergebnissen (Search Highlights). Diese neue Funktion nutzt fortschrittliche KI-Technologien wie ChatGPT, um die Sucherfahrung der Nutzer zu verbessern und ihnen präzisere und relevantere Inhalte zu liefern.

Was bedeutet das für TikTok-Nutzer?

Mit der Integration von KI-generierten Suchergebnissen verändert TikTok die Art und Weise, wie Nutzer nach Informationen suchen und Inhalte entdecken. Anstatt auf traditionelle Suchalgorithmen zu setzen, die auf Keywords und Popularität basieren, verwendet TikTok nun künstliche Intelligenz, um kontextuelle und genauere Suchergebnisse zu liefern.
Die Antworten (KI Ergebnisse) sind auf einigen Suchergebnisseiten im oberen Abschnitt zu sehen, ein Klick auf den Abschnitt liefert eine Seite mit der vollständigen Antwort. Somit können Suchanfragen zu verschiedenen Themen wie bspw. die besten Laptops zu finden oder zu Rezepte via Prompt gestellt werden.  

Vorteile der KI-generierten Suchergebnisse

Relevanz und Präzision: 

Die KI analysiert den Kontext und die Intention hinter den Suchanfragen und liefert Ergebnisse, die besser auf die Bedürfnisse der Nutzer abgestimmt sind. Dies bedeutet weniger Zeitaufwand für die Suche.

Personalisierte Inhalte: 

Durch die Nutzung von KI kann TikTok personalisierte Inhalte basierend auf den Vorlieben und dem Verhalten der Nutzer anbieten. 
Dies verbessert nicht nur die Benutzererfahrung, sondern hält die Nutzer auch länger auf der Plattform.

Schnellere und effizientere Suche: 

Die KI kann große Datenmengen in kürzester Zeit analysieren und relevante Ergebnisse liefern. 
Dies führt zu einer schnelleren und effizienteren Suche, die den Nutzern sofort die gewünschten Informationen bietet.

Die Einführung von KI-generierten Suchergebnissen auf TikTok verbessert die Sucherfahrung der Nutzer erheblich, indem sie nun präzisere, relevantere und personalisierte Inhalte liefert. 
Den vollständigen Artikel zu dieser Neuheit könnt ihr auf The Verge lesen.

 

6. Dating-Apps und Künstliche Intelligenz: Bumble führt KI-Concierge im Online-Datings ein

In der sich ständig weiterentwickelnden Welt des Online-Datings setzt Bumble, eine der führenden Dating-Apps, neue Maßstäbe durch die Integration von Künstlicher Intelligenz (KI).
Unter der Leitung von Whitney Wolfe Herd hat Bumble innovative KI-gestützte Funktionen eingeführt, die das Dating-Erlebnis revolutionieren sollen. Eine der bemerkenswertesten Neuerungen ist der Einsatz von KI als „Dating Concierge“. Diese Funktion soll Nutzern helfen, bessere Übereinstimmungen zu finden und ihre Dating-Erfahrungen zu verbessern. 
Die KI analysiert die Vorlieben und das Verhalten der Nutzer und bietet personalisierte Empfehlungen für potenzielle Matches. 
Dies geht weit über die traditionellen Algorithmen hinaus, die auf einfachen Matching-Kriterien wie Standort und Interessen basieren.
Bumble nutzt KI auch, um die Kommunikation zwischen den Nutzern zu verbessern. Die KI kann beispielsweise Vorschläge für erste Nachrichten machen, um das Eis zu brechen und Gespräche in Gang zu bringen. 
Zudem spielt die KI eine entscheidende Rolle bei der Sicherheit, indem sie verdächtige Aktivitäten erkennt und unerwünschte Nachrichten filtert.
Whitney Wolfe Herd, die Gründerin und CEO von Bumble, betont die Bedeutung von KI für die Zukunft des Online-Datings. 
In einem Interview erklärte sie, dass KI nicht nur das Matching verbessern, sondern auch die Art und Weise verändern kann, wie Menschen miteinander interagieren. 
„Unser Ziel ist es, dass sich unsere Nutzer verstanden und unterstützt fühlen. KI bietet uns die Möglichkeit, dies auf eine Weise zu tun, die vorher undenkbar war“, so Herd. Weiter : "Wenn Sie es ganz genau wissen wollen, gibt es eine Welt, in der Ihr [KI-]Dating-Concierge für Sie ein Date mit einem anderen Dating-Concierge arrangieren kann. Wahrhaftig. Und dann müssen Sie nicht mit 600 Leuten sprechen. Er scannt ganz San Fransisco für Sie und sagt: 'Das sind die drei Leute, die Sie unbedingt treffen sollten.' "

 

Weitere Informationen zu diesem Thema findest du in den Artikeln von Slate und Fortune.

Deine Browser-Version ist anscheinend veraltet. Dadurch kann es zu Darstellungsfehlern auf dieser Webseite kommen.