Microsoft limitează chatbot-ul Bing AI la 5 replici pe zi, pentru a elimina trolling-ul

Scris de | 18 februarie, 2023
Microsoft limitează chatbot-ul Bing AI la 5 replici pe zi, pentru a elimina trolling-ul

Microsoft a sesizat că există probleme cu chatbot-ul Bing Chat şi ia măsuri pentru a le combate. În ultima săptămână acest chatbot a luat-o razna şi fie a insultat utilizatorii, fie a oferit informaţii înşelătoare. Acum Microsoft ia măsuri şi limitează din funcţionalitatea chatbot-ului.

Microsoft impune acum o limită utilizatorilor chatbot-ului său. Utilizatorii îi pot adresa lui Bing Chat doar 5 întrebări pentru a afla răspunsurile căutate. Aceasta ar fi media de întrebări pentru a primi un răspuns prompt. La o conversaţie care sare de 15 întrebări din partea utilizatorului chatbot-ul va începe să dea erori şi răspunsuri ciudate. Încă o limită pusă de MS este faptul că pot fi realizate doar 50 de sesiuni de căutare pe zi.

Echipa Bing a explicat într-o postare pe blog că aceasta mutare e bazată pe date interne, care dovedesc că majoritatea utilizatorilor au nevoie de 5 comenzi pentru a primi răspunsurile corecte. În plus doar 1% dintre conversaţii sar de 50 de mesaje. Odată ce utilizatorul atinge limita de 5 mesaje, Bing îi va propune să înceapă un nou topic pentru a evita sesiunile repetitive.

Aceste limitări vor fi schimbate pe viitor, în funcţie de feedback-ul din partea utilizatorilor. Microsoft a mai dezvăluit şi planuri de a îl aduce pe Bing Chat sau o versiune derivată de ChatGPT pe Android şi iOS în curând.

Etichete: , , , , ,

Sursa: Gizmochina