Badania nad sztuczną inteligencją rozpoczęły się w latach 50. XX wieku. Logic Theorist, stworzony w 1955 r. przez Allena Newella, Clifforda Shawa i Herberta Simona, jest często nazywany pierwszym programem AI. Był to program komputerowy zaprojektowany do imitowania procesu rozumowania ludzkiego poprzez dowodzenie twierdzeń matematycznych w logice pierwszego rzędu.
Logic Theorist był w stanie dowodzić twierdzeń z „Principia Mathematica” Bertranda Russella i Alfreda Northa Whiteheada, co było rewolucyjne w tamtych czasach. Zamiast polegania na uporządkowanym zestawie reguł, używał heurystyk, czyli ogólnych strategii problemów, aby zbadać przestrzeń problemu i znaleźć dowód. Nie tylko weryfikował, czy dany dowód był poprawny, ale mógł też generować nowe dowody dla danej tezy.
Logic Theorist stanowił ważny kamień milowy w historii sztucznej inteligencji, pokazując, że maszyny mogą symulować ludzkie procesy myślowe w dziedzinie tak skomplikowanej, jak matematyka.
Idąc dalej, warto wspomnieć o General Problem Solver (GPS). Był to program opracowany również przez Allena Newella i Herberta Simona, ale w latach 1957-1959. GPS był próbą stworzenia ogólnego rozwiązania dla szerokiego zakresu problemów poprzez imitację ludzkich procesów rozumowania.
Table of Contents
ToggleCzytaj także w BUSINESS INSIDER
Głównym celem GPS było próbowanie rozwiązania problemu szerokiej inteligencji — to znaczy stworzenie systemu zdolnego do radzenia sobie z różnymi problemami, a nie tylko ze specjalistycznymi problemami w jednej dziedzinie, tak jak to miało miejsce z Logic Theorist. GPS potrafił dzielić duże, skomplikowane problemy na mniejsze, bardziej „zarządzalne podproblemy”, a główną cechą wyróżniającą programu była jego zdolność do uogólniania. Mógł być stosowany do różnych zagadnień w wielu dziedzinach, a nie tylko do specjalistycznych zastosowań.
Jeśli chodzi o pionierów sztucznej inteligencji, warto wspomnieć również takie nazwiska jak John McCarthy, który stworzył język programowania LISP w 1958 r., oraz Arthur Samuel, który w 1959 r. stworzył program grający w warcaby i wykorzystujący techniki uczenia maszynowego.
W 1956 r. odbyła się również konferencja w Dartmouth College, która jest często uznawana za narodziny sztucznej inteligencji jako formalnej dziedziny. Uczestnicy, w tym John McCarthy, Marvin Minsky, Allen Newell i Herbert A. Simon, wierzyli, że „każdy aspekt uczenia się lub jakiekolwiek inne cechy inteligencji mogą w zasadzie być tak precyzyjnie opisane, że maszyna może je symulować”.
Wczesne systemy były oczywiście proste w porównaniu z dzisiejszymi zaawansowanymi modelami AI. Niemniej stanowiły one fundamenty dla przyszłych badań w dziedzinie sztucznej inteligencji. Oferowały też zdolność do symulowania pewnych aspektów ludzkiego myślenia i rozumowania, co było w tamtym czasie przełomowe.
ELIZA jako pierwszy chatbot AI
W latach 50. i 60. XX wieku wiele prac zostało wykonanych na rozpoznawaniu wzorców, klasyfikacji i uczeniu maszynowym. Niemiecko-amerykański naukowiec Joseph Weizenbaum, będąc na Massachusetts Institute of Technology (MIT), stworzył w 1966 r. program ELIZA.
ELIZA była jednym z pierwszych programów komputerowych próbujących symulować ludzką konwersację. Z tego powodu często jest opisywana jako wczesny przykład sztucznej inteligencji.
Program był zdolny do prowadzenia prostych rozmów z użytkownikiem, korzystając z techniki przetwarzania języka naturalnego.
ELIZA nie była jednak w żadnym stopniu „świadoma” ani nie miała zdolności do uczenia się w sposób, w jaki rozumie się to w kontekście współczesnej sztucznej inteligencji. Główną techniką, której używała, było rozpoznawanie słów kluczowych i generowanie odpowiedzi na podstawie skryptów. Znana jest przede wszystkim z symulowania terapeuty, odpowiadając na komentarze użytkownika w stylu refleksyjnym, często odbijając pytania z powrotem do użytkownika.
Mimo że program był dość prosty, wielu ludzi reagowało na niego, jakby naprawdę rozumiał ich uczucia i problemy, co zaskoczyło samego Weizenbauma. Co ciekawe, naukowiec stał się z czasem krytykiem AI. Był szczególnie zaniepokojony tym, jak ludzie ufali maszynom i jakie konsekwencje może to mieć dla społeczeństwa. W 1976 r. opublikował książkę „Computer Power and Human Reason”, w której argumentował, że istnieją pewne dziedziny ludzkiego doświadczenia, w których maszyny nigdy nie powinny zastąpić ludzi.
ELIZA przeszła do historii jako demonstracja możliwości przetwarzania języka naturalnego, niemniej nie był to pełnoprawny system sztucznej inteligencji. Weizenbaum kontynuował natomiast pracę na MIT jako profesor informatyki aż do emerytury. W późniejszym okresie życia często wygłaszał wykłady i pisał na temat etyki w informatyce, społecznych i filozoficznych aspektów technologii oraz potencjalnych zagrożeń związanych z niewłaściwym stosowaniem sztucznej inteligencji.
Potem przyszła kolej na perceptrony
W kolejnych latach było już dość głośno o perceptronach. Stanowią one jeden z pierwszych modeli sieci neuronowych i zostały zaprojektowane w latach 50. i 60. XX wieku przez Franka Rosenblatta. Koncepcja perceptronu była inspirowana ludzkim mózgiem i próbą modelowania pojedynczych neuronów.
W podstawowej formie perceptron przyjmuje wiele wejść, przetwarza je, a następnie generuje jedno wyjście. Każde wejście do perceptronu jest ważone, co oznacza, że każde wejście ma pewną wartość, która wpływa na końcowe wyjście. Perceptron sumuje ważone wejścia, a następnie przekształca je za pomocą funkcji aktywacji, aby wyprodukować wyjście. Jeśli suma ważonych wejść przekroczy określony próg, perceptron generuje pozytywne wyjście — w przeciwnym razie generuje negatywne wyjście.
Rosenblatt miał nadzieję, że perceptrony staną się podstawą dla sztucznej inteligencji, ponieważ były zdolne do uczenia się i adaptacji.
Perceptrony były początkowo dość popularne, ale entuzjazm wokół nich zaczął zanikać w latach 60. i 70. po publikacji książki „Perceptrons” autorstwa Marvina Minsky’ego i Seymoura Paperta. W książce wykazano pewne fundamentalne ograniczenia perceptronów, zwłaszcza ich zdolność do rozwiązywania jedynie liniowo separowalnych problemów.
Chociaż perceptrony były krytykowane i ich popularność spadła, stały się finalnie podstawą dla późniejszego rozwoju wielowarstwowych sieci neuronowych i algorytmów uczenia głębokiego. Współczesne sieci neuronowe, które są podstawą wielu zaawansowanych systemów sztucznej inteligencji, rozwijają i rozszerzają koncepcje wprowadzone przez perceptrony, dodając dodatkowe warstwy i bardziej skomplikowane funkcje aktywacji.
W rezultacie perceptrony stanowią ważny kamień milowy w historii sztucznej inteligencji i uczenia maszynowego.
Jak wyglądała droga do ChatGPT?
Rozwój sztucznej inteligencji po ELIZIE był napędzany wieloma kluczowymi systemami i projektami. Kilka najważniejszych, które odegrały istotną rolę w kształtowaniu obecnych systemów AI, to odpowiednio:
SHRDLU. Stworzony przez Terry’ego Winograda w latach 60. i 70., SHRDLU to system przetwarzania języka naturalnego, który mógł interpretować i wykonywać polecenia w fikcyjnym środowisku „bloków”. Mógł manipulować, opisywać i odpowiadać na pytania dotyczące różnych obiektów.
MYCIN. Rozwinięty w latach 70. na Uniwersytecie Stanforda, MYCIN był jednym z pierwszych komputerowych systemów medycznych. Miał za zadanie diagnozować infekcje bakteryjne i zalecać odpowiednie antybiotyki.
DENDRAL. Pionierski system skoncentrowany na chemii, który legł u podstaw wielu późniejszych systemów wnioskowania w różnych dziedzinach.
Neocognitron. Wprowadzony przez Kunihiko Fukushima w 1980 r., protoplasta konwolucyjnych sieci neuronowych, które stały się kluczem do współczesnego głębokiego uczenia.
Backpropagation. Nie jest systemem AI, to algorytm wstecznego rozpowszechniania błędu, popularyzowany w latach 80. przez takich naukowców jak Geoffrey Hinton. Stał się kluczem do skutecznego szkolenia wielowarstwowych sieci neuronowych.
NetTalk. Stworzony przez Terrence’a Sejnowskiego i Charlesa Rosenberga w 1987 r. System, który uczył się wymawiać słowa tak samo, jak ludzie, co było wczesnym dowodem na możliwości głębokiego uczenia.
Deep Blue. Komputer stworzony przez IBM, który w 1997 r. pokonał mistrza świata w szachach, Garriego Kasparowa.
Watson. Również od IBM, Watson to system AI, który w 2011 r. pokonał mistrzów w teleturnieju „Jeopardy!”. Pokazał tym samym potencjał AI w przetwarzaniu języka naturalnego i ogólnym rozumieniu.
AlexNet. W 2012 r. sieć neuronowa zaprojektowana przez Aleksa Krizhevsky’ego, Ilyę Sutskevera i Geoffrey’a Hintona, osiągnęła przełomowe wyniki w konkursie rozpoznawania obrazów ImageNet, przyspieszając rozwój głębokiego uczenia.
AlphaGo. Stworzony przez DeepMind AlphaGo w 2016 r. pokonał jednego z najlepszych graczy w Go na świecie, Lee Sedola, demonstrując zaawansowane strategie i intuicję.
Te systemy i projekty, wraz z wieloma innymi, kładły podwaliny pod nowoczesne technologie AI i były kamieniami milowymi w jej ewolucji.
Niemal od początku istnienia komputerów naukowcy dążyli do odtworzenia ludzkiego intelektu w maszynie. Od Logic Theorist z 1955 r., pierwszych przymiarek do komputerowego dowodzenia teorii matematycznych, po ELIZĘ – pierwszego „terapeutę” w wirtualnym świecie. Jednak to dopiero prace nad perceptronami zapoczątkowały erę, którą teraz nazywamy uczeniem maszynowym.
Droga rozwoju AI była pełna zakrętów, wątpliwości i sceptycyzmu, ale krok po kroku prowadziła nas do dzisiejszych zaawansowanych systemów, takich jak ChatGPT. Kluczowe postacie, innowacje i przełomy w dziedzinie AI nie tylko kształtowały technologię, ale też zadawały ważne pytania o to, co to znaczy być inteligentnym i jakie miejsce w świecie mają maszyny myślące.
Dziś AI staje się współpilotem dla wielu specjalistów na całym świecie. Pomaga realizować wiele zadań w codziennej pracy, często zwiększając produktywność. Zdecydowanie warto znać obecnie dostępne narzędzia i zacząć z nich korzystać. To umiejętności jutra.
Autor: Grzegorz Kubera, dziennikarz Business Insider Polska