Cum va fi AI-ul Gemini de la Google integrat în căutări, în serviciile companiei și în Android

Scris de | 15 mai, 2024
Cum va fi AI-ul Gemini de la Google integrat în căutări, în serviciile companiei și în Android

Întreaga prezentare Google I/O a fost dedicată AI-ului și felului în care compania urmează să înceapă să integreze astfel de funcții bazate pe Gemini în toate produsele sale. Se pare că zilele Google Assistant sunt numărate, întrucât acesta va fi înlocuit complet cu AI-ul Gemini. Vestea bună este că Gemini primește acum funcții avansate, precum posibilitatea de a oferi informații pe baza unui flux video live, sau preînregistrat, pe baza fotografiilor sau a căutărilor text. Dacă aveți un pic de  deja-vu, ei bine, exact aceleași capabilități au fost prezentate și cu o zi înainte de OpenAI și noul său ChatGPT-4o.

Cam toate funcțiile noi prezentate de Google fuseseră arătate în premieră de OpenAI pe ChatGPT-4o

În timp ce OpenAI are la dispoziție doar ChatGPT în care poate integra toate aceste tehnologii noi, Google are multe produse și a prezentat felul în care vom putea folosi AI-ul Gemini în fiecare dintre ele. De exemplu, vei putea folosi camera telefonului pentru a pune întrebări asupra ceea ce „vede” camera pentru căutări în Google Search. Dacă ai o problemă cu un dispozitiv care nu funcționează, sau vrei mai multe informații despre un obiect, animal, plantă sau orice este în fața ta, poți folosi Google Lens pentru a pune o întrebare vocală. AI-ul va oferi apoi rezultate în Google Search, multe generate de AI pe baza căutării, dar și link-uri utile pentru speța respectivă.

Google Search va primi și o interfață nouă pentru căutări, unde majoritatea rezultatelor vor fi generate de AI. Practic, vei primi mai multe informații contextuale referitoare la ceea ce cauți și mai puține link-uri. Atunci când cauți un restaurant, de exemplu, vei primi link către adresa sa de pe Maps, dar și multe recomandări de restaurante similare, sau sugestii de restaurante care ți-ar putea plăcea în zonă. Căutările „web” vor fi într-un tab separat, și vor trebui accesate intenționat. Primii care vor primi noul Google Search vor fi utilizatorii din SUA, însă aceste tipuri de rezultate vor fi extinse în următoarea perioadă și în alte regiuni.

Vei putea pute întrebări prin intermediul Ask Photos direct în colecția de fotografii din Google Photos. Vei putea să extragi numărul de la o mașină fotografiată, sau să cauți toate fotografiile cu pisici, sau câini, sau să afli informații despre clădirile din imagine.

Pentru productivitate, toate aplicațiile „Workspace”, precum Docs, Sheets, Slides, Drive și Gmail, vor primi funcții AI. De exemplu, poți folosi AI-ul în cadrul unei conferințe prin Google Meet pentru a face un rezumat al discuției. Sau poți rezuma un un document, sau pune întrebări pe baza informațiilor care sunt include în acesta. Gmail poate de asemenea să compună mesaje noi sau să modifice texte deja existente prin Gemini.

Google va oferi și o alternativă la AI-ul Sora

Toate aceste capabilități sunt alimentate de noul Gemini 1.5 Flash, care este o versiune mai compactă a lui Gemini 1.5 Pro, lansat recent. Gemini 1.5 Pro primește de asemenea upgrade-uri precum o fereastră de context mai mare, care poate ține minte acum până la 2 milioane de token-uri.

Toată prezentarea a părut să fie un răspuns la ceea ce a anunțat OpenAI, de la Project Astra, un asistent care poate răspunde în timp real la ceea ce se întâmplă în jurul tău, cu care poți avea o conversație și care poate să realizeze sarcini avansate pe baza întrebărilor și a ceea ce vede, până la noul AI numit Veo.

Veo este un generator de clipuri video, care pare să fie un răspuns direct la Sora de la OpenAI. Acesta va genera clipuri video pe baza unor descrieri text, pe baza unor fotografii sau chiar referințe video. Rezultatele sunt afișate în rezoluție 1080p și pot fi modificate rapid după ce sunt generate. De asemenea, Veo poate extinde creațiile la cerere. Publicul țintă pentru Veo par să fie creatorii de conținut, care pot folosi clipuri scurte de acest gen pentru ilustrații în clipuri, sau companii, care pot folosi astfel de clipuri generate pentru prezentări interne. De asemenea studiourile de la Hollywood vor putea folosi astfel de clipuri generate rapid pentru a testa anumite cadre fără să mai apeleze la alte metode costisitoare, precum storyboard-uri sau simulări 3D.

Android va integra AI la nivel de sistem de operare, înlocuind astfel Google Assistant

Pentru că mulți utilizatori de chatbots au început să își creeze anumite „conversații” pe anumite teme, Google va introduce în Gemini așa-numitele „Gems”. Acestea vor fi mici „aplicații” specializate personalizate pentru sarcini repetitive. De exemplu, poți să îți creezi un „Gem” care face automat traduceri din limba engleză în limba română, sau invers, la care să apelezi rapid de fiecare dată. Acestea vor fi disponibile pentru utilizatorii care plătesc abonament.

Pe smartphone-uri, Gemini va fi disponibil oricând și în oricare aplicație. Vei putea să pui întrebări pe baza a ceea ce se întâmplă pe ecran, iar cei care plătesc vor putea să ofere mai mult context prin fișiere PDF sau text. Asistentul Gemini va fi disponibil atât pe Android, cât și în browser-ul Chrome, prin intermediul Gemini Nano, versiunea cea mai compactă a AI-ului.

În cele din urmă, Google a dezvăluit că va integra SynthID în toate creațiile realizate cu Gemini sau Veo. Indiferent dacă realizezi o imagine cu AI, un sunet sau un clip video, acestea vor fi marcate drept creații AI cu un „watermark invizibil”. Nu este clar dacă folosește anumite șabloane în creații direct, sau dacă este o nouă formă de metadata, care ar putea fi cu ușurință îndepărtată.

Este oare o idee bună ca Google Search și alte servicii ale companiei să integreze AI atât de agresiv?

Google pare că se „aruncă” direct în domeniul AI, lucru care poate fi de-o potrivă bun, dar și rău. Tehnologiile sale cu AI au demonstrat în ultimele luni că nu sunt la nivelul concurenței, iar inclusiv în prezentarea oferită pe scenă, AI-ul său a oferit anumite răspunsuri ciudate, sau chiar greșite. Faptul că această tehnologie va fi integrată în toate serviciile și dispozitivele care rulează software Google ar putea fi îngrijorător dacă utilizatorii vor începe să se bazeze pe aceste tehnologii pentru utilizarea de zi cu zi, iar AI-ul va oferi multe răspunsuri greșite.

În general, utilizatorii apelează la căutări sau la chatbot AI atunci când nu cunosc răspunsurile. Având în vedere că AI-ul oferă răspunsuri de multe ori factual greșite, rămâne de văzut cât de benefică va fi integrarea AI atât de agresivă în servicii precum Google Search sau în asistentul vocal de pe smartphone.

Asus ROG Zephyrus g16 - 2024

Etichete: , , , , , , ,