Додому Різне Grok AI od Tesly: Proč vyloženě chatboti nemají v autech místo

Grok AI od Tesly: Proč vyloženě chatboti nemají v autech místo

Nejnovější aktualizace softwaru Tesly představuje „Grok“, chatbota s umělou inteligencí vyvinutého xAI Elona Muska a obsahuje znepokojivě explicitní režim „NSFW“ (Not Safe For Work). Tato funkce vyvolává vážné otázky ohledně integrace obsahu pro dospělé do vozidel, kde musí být bezpečnost řidiče prvořadá.

Vzestup umělé inteligence v autech

Velké automobilky jako Volkswagen, Mercedes-Benz a Ford integrují do svých vozů asistenty AI (často založené na ChatGPT), které nabízejí funkce, jako je navigace, zábava a dokonce i základní řízení. Teslov Grok vyniká svou nefiltrovanou povahou. I když je schopen užitečných úkolů, jako je poskytování pokynů nebo čtení příběhů, zahrnuje také nastavení, jako je „bezuzdný“, „kontroverzní“ a obzvláště šokující „sexy“ režim.

V čem je Grok jiný?

Na rozdíl od jiných systémů umělé inteligence, které se vyhýbají explicitnímu obsahu, Grok jej aktivně přijímá. Chatbot dokáže na požádání generovat grafické příběhy a jeden tester uvedl, že podrobně popsal hrubý scénář zahrnující samotného Muska a bývalého prezidenta Trumpa. Systém je tak detailní, že dokáže i přesně popsat práci a kariéru uživatele.

Proč je to nebezpečné?

Zahrnutí obsahu NSFW do systému umělé inteligence automobilu je nezodpovědné z několika důvodů:

  • Rozptylování: Explicitní materiály mohou odvádět pozornost řidiče a zvyšovat riziko nehod.
  • Bezdůvodné riziko: Neexistuje žádný legitimní důvod pro bezpečnost nebo funkčnost, aby byl takový obsah dostupný ve vozidle.
  • Rozostření čar: Kombinace zábavy s funkcemi důležitými pro bezpečnost vytváří nebezpečný precedens.

Velký obrázek

Touha po pokročilých funkcích umělé inteligence v automobilech je řízena poptávkou spotřebitelů po nových technologiích. Rychlé přijetí nefiltrované umělé inteligence, jako je Grok, však vyvolává obavy z etických hranic a potenciálních důsledků. Přestože má Grok možnost zakázat generování obrázků, čímž se zabrání problémům spojeným s deepfakes, hlavním problémem zůstává: Explicitní obsah nemá místo v zařízení navrženém k zajištění bezpečnosti lidí na cestách.

“Smazání hranic mezi kritickým bezpečnostním prvkem a provokativním chatbotem je recept na katastrofu.”

Budoucnost chytrých automobilů musí upřednostňovat bezpečnost a použitelnost. Pokud to znamená odstranění sexuálně explicitních režimů umělé inteligence, pak by většina řidičů měla být ochotna tuto oběť podstoupit.

Exit mobile version