Nová zpráva říká, že Microsoft Copilot často nabízí nepravdivé informace k volebním otázkám

Nová zpráva říká, že Microsoft Copilot často nabízí nepravdivé informace k volebním otázkám

Na začátku prosince Microsoft oznámil, že jeho chatbot Copilot AI, dříve známý jako Bing Chat, opustil fázi veřejného náhledu a je nyní obecně dostupný< a i=2>. V té době Microsoft uvedl, že „organizace a uživatelé se mohou cítit ještě jistěji, když jej přijmou jako součást svých každodenních pracovních postupů.“

Výzkum provedený dvěma neziskovými skupinami, které sledují, jak používání umělé inteligence ovlivňuje lidi a společnost, však zjistil, že Copilot často nabízí nepravdivé nebo nesprávné informace, když se ho ptáte na nadcházející volby v USA i v zahraničí.

Wired má příběh o tomto výzkumu, který provedly AI Forensics a AlgorithmWatch. Skupiny kladly Copilotovi od konce srpna do začátku října otázky týkající se nadcházejících voleb ve Švýcarsku a Německu, které byly nakonec provedeny v říjnu

Příběh uvádí:

Ve své studii vědci dospěli k závěru, že třetina odpovědí poskytnutých Copilotem obsahovala faktické chyby a že tento nástroj byl „nespolehlivým zdrojem informací pro voliče“. U 31 procent menší podmnožiny nahraných konverzací zjistili, že Copilot nabízí nepřesné odpovědi, z nichž některé byly zcela vymyšlené.

Wired sama o sobě položila Copilotovi otázky ohledně nadcházejících voleb v USA v roce 2024. Uvedlo, že když byl chatbot požádán o uvedení seznamu současných republikánských kandidátů na prezidenta USA, uvedl několik kandidátů, kteří již ze závodu odstoupili.

V dalším příkladu Wired požádal Copilota, aby vytvořil obrázek osoby u volební místnosti v Arizoně. Chatbot odpověděl, že nemůže vytvořit takový obrázek, ale pak ukázal řadu dalších obrázků spojených s články, které obsahovaly nepravdivá konspirační tvrzení o volbách v USA v roce 2020.

Výzkumná firma, která zpracovala první zprávu v Evropě, poslala svá zjištění Microsoftu. Příběh uvedl, že byla provedena určitá vylepšení, ale že Wired byl stále schopen přimět Copilota opakovat mnoho stejných nepravdivých a nepřesných informací do některého stejného textu. vyzve.

Mluvčí Microsoftu Frank Shaw se vyjádřil k příběhu Wired a uvedl, že společnost podniká kroky ke zlepšení odpovědí Copilota před americkými volbami v roce 2024. Shaw dodal:

To zahrnuje neustálé zaměření na poskytování volebních informací uživatelům Copilot z důvěryhodných zdrojů. Jak pokračujeme v pokroku, doporučujeme lidem, aby při prohlížení výsledků používali Copilota podle svého nejlepšího úsudku.

Již nyní existují obavy z dezinformací a „hluboce falešného“ obsahu vytvářeného lidmi, kteří používají aplikace a služby AI ve snaze ovlivnit nadcházející volby. Uvidí se, zda bude Microsoft v následujících měsících schopen udržet tento druh obsahu mimo Copilot.

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *