In cosa differisce quindi questo nuovo chatbot da quelli già presenti sul mercato?
La differenza principale sta nel modello alla base; se infatti la modalità di utilizzo e il modo in cui l’IA apprende e risponde sono praticamente le stesse della controparte, al posto di GPT 3.5 potevamo trovare qui un “large language model” (LLM) proprietario di Google, chiamato LaMDA (Language Model for Dialogue Application).
Questo sistema però è ora approdato alla sua seconda iterazione, presentata proprio nel recente I/O.
Ad alimentare adesso il chatbot ci pensa PaLM 2 (pathways language model), che ha di fatto triplicato il numero di parametri a cui l’IA può attingere.
Bard è stata pensata per essere un’AI assistiva, capace di supportare l’utente nella creazione, ad esempio, di lettere di accompagnamento, o anche sviluppare codice informatico, o ancora restituire traduzioni precise e dettagliate.
Anche qui non sono mancate le critiche; proprio come ChatGpt, infatti, anche Bard sta riscontrando diversi problemi legati al carattere delle sue risposte.
È stato dimostrato che, a seconda del contesto generato, le risposte del bot potrebbero finire col perpetrare dei pericolosi pregiudizi sociali, siano essi rivolti verso questa o quella minoranza etnica, piuttosto che verso il genere femminile.
Questo tasso di output negativo di circa il 38%, sale al 60% con l’inserimento di precisi riferimenti razziali o religiosi.
Questo però non deve sorprendere, né tantomeno far pensare ad un qualche subdolo complotto di Google. Come ha dichiarato la stessa società in realtà, il prodotto è stato lanciato prematuramente sul mercato, con l’intento di capire come l’utenza ma soprattutto il bot avrebbe risposto alle sollecitazioni.
Probabilmente, stando a quanto dichiarato dalla casa, ci potrebbero volere anche due anni prima gran parte delle criticità vengano risolte.