Badanie MIT: ChatGPT zmienia sposób, w jaki działa nasz mózg – nie zawsze na lepsze

5 godzin temu
Zdjęcie: ChatGPT


Duże modele językowe, takie jak ChatGPT, zrewolucjonizowały sposób, w jaki piszemy, uczymy się i szukamy informacji. Ale najnowsze badanie MIT Media Lab stawia ważne pytanie: czy częste korzystanie z AI wpływa na nasz mózg – i to niekoniecznie pozytywnie?

Eksperyment przeprowadzony przez neurologów i specjalistów od sztucznej inteligencji z Massachusetts Institute of Technology daje do myślenia. W warunkach kontrolowanych 54 ochotników poproszono o napisanie esejów na temat filantropii – jedni z pomocą ChatGPT, inni z wykorzystaniem wyszukiwarki Google, a reszta wyłącznie własnym umysłem. Uczestników podłączono do urządzeń EEG, które mierzyły aktywność mózgu w czasie pisania. Wyniki okazały się zaskakujące.

AI jako kula u nogi?

Grupa, która pisała samodzielnie, wykazywała najwyższy poziom zaangażowania poznawczego i najaktywniejszą pracę mózgu. Użytkownicy Google byli pośrodku – korzystali z zewnętrznego źródła wiedzy, ale przez cały czas musieli selekcjonować informacje i samodzielnie je formułować. Tymczasem użytkownicy ChatGPT wykazali najniższą aktywność neuronową. Ich mózgi pracowały mniej intensywnie, a po kilku miesiącach – w ponownym teście – uczestnicy z tej grupy zapamiętywali mniej i gorzej identyfikowali się ze swoją pracą.

Najbardziej wymowny był fakt, iż osoby korzystające z ChatGPT miały trudności z przypomnieniem sobie, co dokładnie napisały. Co więcej – rzadziej utożsamiały się z esejem, który formalnie stworzyły. To z kolei może wskazywać na brak wewnętrznego przetworzenia treści, które zostały w dużej mierze wygenerowane, a nie samodzielnie wypracowane.

Modele językowe a umiejętność krytycznego myślenia

Od premiery ChatGPT w 2022 roku popularność dużych modeli językowych (LLM) eksplodowała. Stały się one wszechobecne w środowisku akademickim, pracy biurowej i edukacji. Narzędzia te przyspieszają pisanie, pomagają syntetyzować informacje i tłumaczyć złożone pojęcia. Ale pojawia się pytanie: czy ułatwianie procesów myślowych nie prowadzi przypadkiem do ich rozleniwienia?

Z badań MIT wynika, iż może tak być. Wskazują one, iż stałe korzystanie z AI w roli pomocnika poznawczego – choćby jeżeli efektywne – może z czasem wpływać negatywnie na rozwój umiejętności krytycznego myślenia i zapamiętywania. To szczególnie istotne w kontekście systemów edukacyjnych oraz młodych użytkowników, którzy dopiero kształtują swoje strategie poznawcze.

Czy AI uczy nas myśleć – czy myśleć przestajemy?

Zwolennicy LLM podkreślają, iż narzędzia takie jak ChatGPT pomagają rozwijać nowe formy ekspresji i dostęp do wiedzy. Z perspektywy technologicznej nie sposób się z tym nie zgodzić – modele te doskonale sprawdzają się jako asystenci, edytorzy i korepetytorzy. Są szybkie, tanie i zawsze dostępne.

Problem pojawia się, gdy AI zaczyna zastępować proces myślenia, zamiast go wspierać. Badanie MIT pokazuje, iż różnica między „pomaganiem” a „wyręczaniem” jest znacząca – nie tylko poznawczo, ale i neurologicznie.

Efektywność vs. głębia poznawcza

To, co daje krótkoterminową produktywność, może w dłuższej perspektywie prowadzić do poznawczej stagnacji. Modele AI potrafią tworzyć teksty spójne, logiczne i przekonujące – ale to nie oznacza, iż uczymy się lepiej. Wręcz przeciwnie – użytkownicy, którzy polegali wyłącznie na sobie, osiągali wyższe wyniki w ocenie jakości esejów (zarówno według ludzi, jak i AI), lepiej je zapamiętywali i wykazywali większe zaangażowanie poznawcze.

Wynika z tego, iż w dłuższej perspektywie, bycie zdanym na siebie może być bardziej rozwijające niż ciągłe poleganie na AI – choćby jeżeli ta druga opcja wydaje się „efektywniejsza”.

Wnioski z badań MIT mogą mieć istotne znaczenie dla branży technologicznej, edukacyjnej i HR. Coraz więcej firm implementuje generatywną AI w codziennej pracy – od copywritingu, przez analizy, po kodowanie. Tymczasem rodzi się pytanie: jak utrzymać równowagę między automatyzacją a aktywizacją poznawczą pracowników?

Dla nauczycieli i decydentów edukacyjnych to także sygnał ostrzegawczy – nadmierne poleganie na AI może utrudniać rozwój niezależnego myślenia. Potrzebne są strategie dydaktyczne, które nie tylko pozwalają korzystać z AI, ale uczą, jak to robić świadomie – tak, by wspierać, a nie zastępować procesy poznawcze.

Umiar i intencjonalność

Jak w przypadku każdej technologii, najważniejsze jest zrozumienie jej wpływu i świadome korzystanie. Modele językowe nie są z natury złe – ale ich użycie powinno być przemyślane. Jak pokazuje badanie MIT, pozostawienie części wysiłku intelektualnego po stronie człowieka przez cały czas ma sens – zwłaszcza jeżeli zależy nam na długofalowym rozwoju kompetencji poznawczych.

Idź do oryginalnego materiału