Pierwsze komputery pomagały nam w obliczeniach, później zbudowaliśmy roboty wyręczające nas w różnych pracach, dziś, szukając odpowiedzi na pytanie, posiłkujemy się sztuczną inteligencją. Czy jednak faktycznie jest ona taka mądra i wszechwiedząca, jak stara się sprawiać wrażenie?
Fragment artykułu z miesięcznika „Dyrektor Szkoły” 2023/8
Rozwój sztucznej inteligencji (ang. artificial intelligence, AI) jest ściśle powiązany z możliwościami obliczeniowymi komputerów. Przed 1945 r. nie posiadały one podstawowej cechy inteligencji – nie potrafiły przechowywać komend, a jedynie je wykonywać. Innymi słowy mogliśmy rozkazywać komputerom, ale nie pamiętały one tego, co robiły w przeszłości. Ponadto komputery były bardzo drogie. Na początku lat 50. XX wieku wydzierżawienie sprzętu na jeden miesiąc kosztowało 200 tys. USD, więc tylko najlepsze uniwersytety i duże korporacje miały fundusze, by eksperymentować z komputerami. Dziś sztuczna inteligencja jest obecna w każdej szkole i klasie chociażby dzięki ChatGPT i żaden nauczyciel nie może już powiedzieć, że temat AI go nie dotyczy.
Od zarania dziejów człowiek poszukiwał sposobów podniesienia efektywności swojej pracy. Najpierw były to narzędzia usprawniające działanie, później maszyny zastępujące człowieka. W tym sensie sztuczna inteligencja jest naturalnym kontynuatorem poszukiwań i rozwoju innowacji.
Jak zauważa prof. Maciej Sysło (Fazlagić, 2022), jeszcze przed erą komputerów Blaise Pascal (1623–1662) i Gottfried W. Leibniz (1646–1716) budowali pierwsze instrumenty do obliczeń. W pierwszej połowie XIX w. Charles Babbage (1792–1871) podjął się zbudowania maszyny analitycznej, której koncepcja niewiele odbiegała od funkcjonowania dzisiejszych komputerów. Nie zbudował jej, ale nieistniejącą maszyną zachwyciła się Lady Augusta Ada Lovelace (1815–1852), córka Byrona, i napisała program, dzięki czemu uznaje się ją za pierwszą programistkę.
Zamów prenumeratę: www.profinfo.pl/sklep/dyrektor-szkoly,7340.html