https://audiostory.buzzsprout.com/1710535/episodes/16593550-inspirace-nezapominejme-na-rizika-spojena-s-umelou-inteligenci
Audiostory
00:00
00:00
Umělá inteligence je bezpochyby fenomén dnešní doby. Předchozí věta je sice klišé, ale je pravda, že snad již téměř každý zkusil nějakého chatbota poháněného umělou inteligencí, třeba jen ze zvědavosti. Dnešní doba je úchvatná v tom, jak rychle vznikají a jsou implementovány nové technologie. Ještě v roce 2015 byly AI modely jako strojové učení použitelné hlavně v omezených oblastech. Do roku 2023 však vznikly pokročilé systémy, jako jsou generativní AI (např. ChatGPT), které umí vytvářet text, obrázky nebo programy, což mění průmyslová odvětví během několika let. Možná ještě více vypovídající je rychlost adopce nových technologií. Zatímco televizi trvalo desítky let, než dosáhla miliardy uživatelů, technologie jako chytré telefony nebo sociální sítě tento milník dosáhly během pouhých několika let. ChatGPT dosáhla 100 milionů uživatelů za 2 měsíce od spuštění.
Jako lidé jsme uchváceni novými možnostmi a dost často zapomínáme na rizika, a to i v případě umělé inteligence. Některé hrozby jako je např. tak zvané halucinování umělé inteligence nám mohou připadat úsměvné, umělá inteligence může někdy vymyslet naprosto fantastické (ale neexistující) recepty. Například, když nejmenovaný model AI dostal úkol popsat recept na těstoviny, odpověděl: „Nejdříve uvařte těstoviny v mléce, přidejte 500 gramů čokolády, a na závěr posypte vše špetkou vanilkového prášku a pár kousky citronové kůry.“ Když byl jiný model umělé inteligence požádán, aby napsal esej o vývoji zvířat, tvrdil, že delfíni dokážou hrát na klavír, a že včely mají vlastní banky. Tyto halucinace se mohou vyskytnout například u jazykových modelů, když generují text na základě vzorců, které se naučily, ale nemají přístup k aktuálním nebo ověřeným informacím. To však nebrání tomu, aby lidé na základě nepřesných informací nečinili rozhodnutí... Pokud to bude špatně napsaná písemka studentem ve škole, nebude to asi až tak zlé, pokud však bude uměla inteligence podporovat rozhodování vodohospodářů můžeme mít pěkný malér.
Jako lidé jsme uchváceni novými možnostmi a dost často zapomínáme na rizika, a to i v případě umělé inteligence. Některé hrozby jako je např. tak zvané halucinování umělé inteligence nám mohou připadat úsměvné, umělá inteligence může někdy vymyslet naprosto fantastické (ale neexistující) recepty. Například, když nejmenovaný model AI dostal úkol popsat recept na těstoviny, odpověděl: „Nejdříve uvařte těstoviny v mléce, přidejte 500 gramů čokolády, a na závěr posypte vše špetkou vanilkového prášku a pár kousky citronové kůry.“ Když byl jiný model umělé inteligence požádán, aby napsal esej o vývoji zvířat, tvrdil, že delfíni dokážou hrát na klavír, a že včely mají vlastní banky. Tyto halucinace se mohou vyskytnout například u jazykových modelů, když generují text na základě vzorců, které se naučily, ale nemají přístup k aktuálním nebo ověřeným informacím. To však nebrání tomu, aby lidé na základě nepřesných informací nečinili rozhodnutí... Pokud to bude špatně napsaná písemka studentem ve škole, nebude to asi až tak zlé, pokud však bude uměla inteligence podporovat rozhodování vodohospodářů můžeme mít pěkný malér.
A jak předejít průšvihu?
V roce 2021 přišla Evropská komise s draftem Nařízení o umělé inteligenci (AIA), který by měl upravovat pravidla pro její vývoj a použití. Potud všechno dobré, má to však jeden háček, účinnost je předpokládána nejdříve v roce 2026! Dostáváme se zpět k rychlosti technologické evoluce a úvaze, nakolik bude tedy takové nařízení vůbec relevantní, když od jeho draftu uplyne minimálně 5 let! Bude nařízení reflektovat technologické změny a průnik technologie do praktického života? To je otázka.
Co však může a měla by každá organizace udělat již dnes?
Stanovit si vlastní interní pravidla pro využití umělé inteligence a její zapojení do interních procesů (věřte tomu, že i v tomto okamžiku uživatelé využívají dostupné modely umělé inteligence, aby si usnadnili pracovní úkoly). Při nedodržování základních bezpečnostních pravidel to může ohrozit jednak osobní údaje, ale i patenty nebo know how organizace. Stejně tak nekritické přijímání výstupů umělé inteligence může velmi snadno ohrozit důležitá rozhodnutí.
Pokud tedy nevíte, jak se připravit na umělou inteligenci, jak si vyhodnotit její rizika, jak si stanovit interní pravidla, co všechno udělat, klidně se obraťte na Aricomu. Rádi vám poradíme a jak se říká za zeptání, nic nedáte :)
Pokud tedy nevíte, jak se připravit na umělou inteligenci, jak si vyhodnotit její rizika, jak si stanovit interní pravidla, co všechno udělat, klidně se obraťte na Aricomu. Rádi vám poradíme a jak se říká za zeptání, nic nedáte :)

NEVÁHEJTE, KONTAKTUJTE NÁS.
Máte zájem o další informace nebo o nabídku pro vaši konkrétní situaci?
BUĎTE U TOHO
Přihlaste se k odběru našich newsletterů, ať vám nic podstatného neuteče.