Nová štúdia spoločnosti Microsoft sledovala vplyv na takzvané „kritické myslenie“. FOTO: Microsoft, Technet.cz
StoryEditor

Umelá inteligencia môže znižovať tú ľudskú, ukazuje štúdia Microsoftu

20.02.2025, 11:18
  • Základom štúdie bol prieskum správania pracovníkov a analýza príkladov konkrétneho použitia niektorého zo súčasných nástrojov generatívnej umelej inteligencie.
  • Používanie týchto nástrojov, ako je Copilot alebo ChatGPT, môže znižovať schopnosť kritického myslenia a samostatného riešenia problémov ich užívateľov.
  • Toto zistenie by podľa autorov štúdie malo viesť k zlepšeniu návrhu AI nástrojov, uvádza Technet.cz.

„Pri nesprávnom použití môžu technológie viesť (a vedú) k zhoršeniu kognitívnych schopností, ktoré by mali byť zachované. Ako poznamenal Bainbridge (v článku Ironies of Automatization z roku 1983), hlavná irónia automatizácie spočíva v tom, že mechanizáciou rutinných úloh a ponechaním spracovania výnimiek na ľudskom užívateľovi, zbavujete užívateľa rutinnej príležitosti precvičovať svoj úsudok a posilňovať svoje kognitívne svalstvo, čím sa stáva atrofovaným. úvode práce....

Pridajte sa k tým, ktorí vedia viac.
Zostáva vám 85% na dočítanie.
01 - Modified: 2025-12-04 16:20:23 - Feat.: - Title: Umelá inteligencia vstupuje do fintechu. Rozumieť jej začínajú aj Slováci, hoci ešte nie sme tam kde Singapur 02 - Modified: 2025-12-04 13:13:14 - Feat.: - Title: Asi 43 percent Slovákov použilo nástroje AI, denne s nimi narába len 7,2 percenta 03 - Modified: 2025-12-04 13:00:00 - Feat.: - Title: Keď sa AI zmení na fanúšikovský kult. Grok tvrdí, že by zopakoval holokaust, len aby zachránil Elona Muska 04 - Modified: 2025-12-04 10:58:34 - Feat.: - Title: Európska komisia vyšetruje Metu kvôli integrácii umelej inteligencie do WhatsAppu 05 - Modified: 2025-12-02 17:00:00 - Feat.: - Title: Červený kód OpenAI: Kto komu dýcha na krk v pretekoch umelej inteligencie
menuLevel = 2, menuRoute = science/nove-technologie, menuAlias = nove-technologie, menuRouteLevel0 = science, homepage = false
05. december 2025 13:33