Wpisy oznaczone tagiem "sztuczna inteligencja" (22)  

averywhitney
 
Sztuczna inteligencja to dziedzina informatyki, jaka zajmuje się opracowywaniem i rozwojem maszyn, które są zdolne do realizacji czynności, jakie do bieżącej chwili były wykonywane jedynie przez ludzi. Koncepcja jest dosyć prosta, podejmowanie jedynie trafnych decyzji i czynności, wyeliminowanie "ludzkich błędów" w wykonywanych procesach. Wyobraźmy sobie lekarza, który na bazie przedstawionych poprzez pacjenta objawów, dokonując analizy danych bezbłędnie diagnozuje i leczy pacjenta. Takie zastosowanie sztucznej inteligencji byłoby oczywiście wyjątkowo dobre dla wszystkich ludzi. Pojawia się jednak bardzo dużo problemów do usunięcia. Sztuczna inteligencja to nic innego jak program komputerowy - algorytm analizujący informacje a na ich podstawie podejmujący decyzje. Istotnym problemem jest podejmowanie decyzji w przypadku braku bądź małej ilości danych. Człowiek dysponuje zmysłem nazywanym często instynktem - w wypadku maszyny nie ma takiej możliwości. Sztuczna inteligencja jest przyszłością, i być może już za kilka, kilkadziesiąt lat będzie wyjątkowo pomocna dla całej ludzkości.
Możesz dowiedzieć się dużo więcej na inteligencja-sztuczna.blog.pl/(…)sztuczna-inteligen…, aztekium.pl/azbot2.py?tekst=sztuczna_inteligencja.
 

troypatrick
 
Sztuczna inteligencja to dziedzina informatyki, która zajmuje się opracowywaniem oraz rozwojem maszyn, które są zdolne do realizacji czynności, jakie do tej chwili były realizowane jedynie poprzez ludzi. Idea jest dosyć prosta, podejmowanie tylko właściwych decyzji i czynności, wyeliminowanie "ludzkich błędów" w wykonywanych procesach. Wyobraźmy sobie lekarza, który na podstawie opisanych poprzez pacjenta objawów, dokonując analizy danych bezbłędnie diagnozuje i leczy pacjenta. Takie zastosowanie sztucznej inteligencji byłoby bezsprzecznie bardzo korzystne dla wszystkich ludzi. Pojawia się jednak bardzo wiele problemów do rozwiązania. Sztuczna inteligencja to nic innego jak program komputerowy - algorytm analizujący dane i na ich podstawie podejmujący decyzje. Głównym kłopotem jest podejmowanie decyzji w wypadku braku bądź niedostatecznej ilości informacji. Człowiek dysponuje zmysłem nazywanym często instynktem - w przypadku maszyny nie ma takiej możliwości. Sztuczna inteligencja jest przyszłością, i być może już za kilka, kilkadziesiąt lat będzie wyjątkowo pomocna dla całej ludzkości.
Sprawdź na inteligencja-sztuczna.blog.pl/(…)sztuczna-inteligen…, aztekium.pl/azbot2.py?tekst=sztuczna_inteligencja.
 

ebook-obyczajowe
 
Autor: Max Tegmark  

Jak sztuczna inteligencja wpłynie na świat - wojny, prawo, zatrudnienie, przestępczość, relacje społeczne i nasze własne poczucie człowieczeństwa? Czy powinniśmy się obawiać wyścigu zbrojeń w zakresie broni autonomicznych, a może tego że maszyny całkiem nas zastąpią na rynku pracy? Powstanie sztucznej inteligencji ma większy potencjał do przekształcenia naszej przyszłości niż jakakolwiek inna technologia - i nie ma nikogo o większych kwalifikacjach do zbadania tej przyszłości niż Max Tegmark, profesor w MIT.
A jakiej przyszłości Ty chcesz? Ta książka zachęci Cię do przyłączenia się do dyskusji, która może okazać się najważniejszą w naszych czasach. Reprezentowane są w niej najrozmaitsze punkty widzenia i przedstawiane najbardziej kontrowersyjne zagadnienia - od superinteligencji aż do świadomości.

Max Tegmark jest profesorem fizyki w MIT i autorem bestsellerowego "Naszego matematycznego Wszechświata". Napisał ponad dwieście prac naukowych, obejmujących tematy od kosmologii po sztuczną inteligencję.


Szczegóły publikacji:
obyczajowe.masz24.pl/zycie_3_0__czlowiek_w_erze_…

--------------------------------------------------------------------------------------------------
Więcej ebooków z kategorii "obyczajowe", znajdziesz tutaj:
masz24.pl/ebooki-obyczajowe.html
--------------------------------------------------------------------------------------------------
 

v10pl
 
Super-inteligentne motocykle tuż za rogiem - Kawasaki ogłosiło, że pracuje na systemem sztucznej inteligencji w motocyklu. System ten pozwoli motocyklowi komunikować się i dostosowywać do stylu jazdy...
www.motocykle.v10.pl/Kawasaki,pracuje,nad,system…
 

epartnerzy
 
A gdybyś pewnego dnia się obudził i wymacał z przodu piersi, które wyrosły nocą, to co byś zrobił? Skutki tego niesamowitego odkrycia zawiodły bohatera (bohaterkę?) tytułowego opowiadania zbioru „Trzeci cycek” w głębię podziemi i nieznanej dotąd seksualności, oraz doprowadziły do zrozumienia własnych odczuć i pojęcia rozmiarów zbrodni, której stał się ofiarą.

Tytułowy „Trzeci cycek” rozpoczyna tom, na który składa się siedem intrygujących i przejmujących opowieści. Kwestie płci, wolnej woli, przeznaczenia, ratowania ludzkości przed knowaniami służb i tyranią systemu, walki o własną tożsamość, marzenia, miłość, prawo do wyboru, relacje między człowiekiem a sztuczną inteligencją. Oto tematy, które autorka porusza z odwagą, mądrością oraz niebywałą wprost empatią, wnikając w dusze kobiety, mężczyzny, robota.

Emma Popik to mistrzyni krótkiej formy, która powraca w świetnej formie w zbiorze nigdzie wcześniej niepublikowanych tekstów. Jej opowiadanie „Mistrz” zaliczono do stu najlepszych polskich opowiadań. I nic się nie zmieniło. Utwory autorki wciąż wzbudzają emocje i skłaniają do refleksji, gdyż mówią o ważnych problemach dotyczących cywilizacji i człowieka, którego Emma Popik zawsze broni i nigdy nie pozostawia bez nadziei.

Promocja tylko 22 października 2015 r. - sprawdź na stronie:
epartnerzy.com/okazja-dnia.xml

Poza promocją publikację znajdziesz na stronie:
epartnerzy.com/(…)trzeci_cycek_p36160.xml…

Książka w formacie EPUB (bez zabezpieczeń DRM) na PC, e-czytniki, smartfony i tablety. Możliwość pobrania PDF z poziomu Biblioteki (dla zarejestrowanych).

Darmowy fragment:
aspiracja.com/(…)trzeci_cycek_ebook.pdf…

Trzeci cycek - ebook.jpg
 

kciuk-pl
 
Pierwsze skojarzenie : bezzałogowe samoloty które same rozpoznają pole walki i przekazują instrukcje bezzałogowym czołgom...

Link: www.kciuk.pl/Przyszlosc-robotyki-a111505
 

kciuk-pl
 
Był geniuszem, którego zniszczyła fala uprzedzeń i nienawiści. Gdyby nie to, pewnie powstałaby już prawdziwa sztuczna inteligencja. W tym roku obchodzimy stulecie urodzin Alana Turinga. Więcej w linku.

Link: www.kciuk.pl/Alan-Turing-Ojciec-komputerow-a93023
 

konopielka3
 

Sztuczna inteligencja, wielkie marzenie ludzkości, właśnie pojawia się wśród nas. Po cichu, niezauważalnie i w dość nieoczekiwany sposób. Powinniśmy się bać czy cieszyć?

Czekamy na nią od niepamiętnych czasów. No, przynajmniej od starożytności, bo to wtedy powstał mit o Talosie, mechanicznym olbrzymie z brązu, który strzegł brzegów Krety. Nie dość, że potrafił obchodzić brzegi wyspy, to w dodatku odróżniał przyjaciół od wrogów. Dojrzawszy tych drugich, rozgrzewał się do czerwoności, a następnie brał ich w ogniste objęcia, w ten bolesny sposób szybko kończąc inwazję na wyspę.

O ile marsz i palenie wrogów byłyby jeszcze technicznie osiągalne, o tyle rozpoznawanie tego, kogo uściskać, a kogo nie, stanowi problem nawet dla najnowocześniejszych autonomicznych systemów wojskowych, jakie nieustannie testowane są na niebie i ziemi Afganistanu. Podejmowanie takich decyzji wymaga bowiem właśnie tego czegoś, czego od tysiącleci szukamy - sztucznej inteligencji.

Tylko czym ona ma być? By nie zagłębiać się w kulturowe i religijne niuanse, najprościej można by odpowiedzieć: sztucznym tworem, który będzie myślał w taki sposób, jak czynią to ludzie. Zwykle w mitach i kulturze to człowieczeństwo jest niepełne albo wypaczone - taki jest Golem z Talmudu, robot Maria z "Metropolis" i HAL z "2001: Odysei kosmicznej". I zwykle rodzi się nagle - Golem dostaje papirus z hebrajskim napisem, a Skynet z "Terminatora" zyskuje świadomość, gdy do sieci zostaje podłączona wystarczająca liczba komputerów. A gdy już powstanie, czym prędzej zaczyna działać.

Wszystkie te wizje stworzone przez kulturę całkowicie zdominowały nasz sposób myślenia o sztucznej inteligencji. Uważamy, że jej nie ma, bo z pewnością zauważylibyśmy jej narodziny. Czy rzeczywiście cokolwiek byśmy dostrzegli? I czy można mówić o "narodzinach" - łatwym do określenia momencie?

Podobni, choć inni

Pierwsza kwestia dotyczy podobieństwa ewentualnej sztucznej inteligencji do inteligencji ludzkiej. Zakładamy, że musi być ono bardzo wyraźne. A przecież sposób, w jaki myślimy, został ukształtowany przez ostatnie 10 mln lat ewolucji i bardzo ściśle zależy od warunków, w jakich powstawał nasz gatunek. Wystarczy spojrzeć choćby na wyjątkowy dla człowieka system rozpoznawania twarzy. To, że dostrzegamy je nie tylko u innych ludzi, ale też na nadpalonych tostach, w tłustych plamach na szybach czy w układzie marsjańskich gór, jest efektem działania znajdujących się w płatach skroniowych mózgu grup neuronów, które aktywują się wyłącznie w reakcji na ściśle określone zespoły kształtów - zestaw oczy-nos-usta w różnych wariacjach. Z ewolucyjnego punktu widzenia to zrozumiałe - skuteczne rozpoznanie twarzy jest kluczowe dla życia społecznego.

Oczekiwalibyśmy naturalnie, że sztuczna inteligencja, której pokażemy tost, na którym widzimy zarys twarzy, wykrzyknie: "O, faktycznie! Ale fajne!". Tyle że to głęboko antropocentryczny sposób myślenia - maszyna nie przechodzi procesu ewolucji, jaki mamy za sobą, nie wykształciła więc struktur w ten sposób działających. To samo dotyczy większości ludzkich cech, których trudno nauczyć się na podstawie samej obserwacji naszych zachowań. Jeśli miałaby istnieć hipotetyczna sztuczna inteligencja, która cichcem tworzyłaby się gdzieś u naszego boku, by nagle się ujawnić, to mogłaby ona wytropić, zgromadzić i przeanalizować wszystkie szeroko w mediach omawiane przypadki cudownych wizerunków. Trudno byłoby jej jednak na tej podstawie wytworzyć odpowiednik ludzkiego systemu rozpoznawania twarzy - bardzo trudno stwierdzić, gdzie jest granica podobieństwa, które "odpala" w mózgu odpowiednie neurony, a co już nie wywołuje tej reakcji.

Ta i mnóstwo innych cech ściśle ludzkich sprawiają, że samoczynne narodziny sztucznej inteligencji podobnej do naszej są praktycznie niemożliwe. Nauczenie się całego zespołu cech, które określamy jako człowieczeństwo, byłoby najprawdopodobniej niemożliwe, a rozpoznanie przez prawdziwych ludzi fałszu - banalnie proste. Jesteśmy, co znowu jest efektem ewolucji w stadzie, niezwykle wyczuleni na najsubtelniejsze nawet odchylenia od ludzkiej normy. Rozróżnienie swój - obcy było przez miliony lat sprawą życia lub śmierci. Wychwytujemy najdrobniejsze zmiany w akcencie wypowiadanych słów, delikatne zmiany wywołane środkami odurzającymi czy nawet zmęczeniem. Niełatwo nas oszukać.

Jak odróżnić bułkę od jeża?

Jedyną drogą pozostaje więc "ręczne" zbudowanie sztucznej inteligencji. Sami musimy rozpoznać kluczowe dla człowieczeństwa cechy, po to by precyzyjnie je opisać, a następnie zaprogramować w maszynie. Zajmujemy się tym zresztą od dość dawna, bo od ponad pół wieku. W latach 60. szybki rozwój elektroniki sprawił, że zbudowanie sztucznej inteligencji wydawało się w zasięgu ręki. Duży w tym udział miał zmarły w październiku zeszłego roku profesor John McCarthy, który uważany jest za ojca współczesnej koncepcji sztucznej inteligencji - on sam zresztą wprowadził ten termin do użycia w jednym ze swoich artykułów z 1955 r. Profesor McCarthy założył w Massachusetts Institute of Technology (MIT) Laboratorium Sztucznej Inteligencji i stworzył założenia, które zainspirowały wszystkich tych autorów książek i filmów science fiction, od których przejęliśmy całą koncepcję.

John McCarthy jeszcze w latach 50. przyjął założenie, że "każdy aspekt uczenia się lub każda inna cecha inteligencji mogą zostać tak precyzyjnie opisane, iż maszyna może je symulować". Kolejne sukcesy techniczne lat 60. i 70. tak zdawały się przybliżać tę wizję, że na początku lat 80. poważne fundusze inwestycyjne zaczęły wkładać duże pieniądze w początkujące firmy z Doliny Krzemowej, które obiecywały rychłe powstanie sztucznej inteligencji. Wychodzono bowiem z założenia, że skoro komputery opanowały tak trudne zadania jak złożone obliczenia matematyczne czy gra w szachy, to łatwe będzie nauczenie ich rzeczy prostych - rozpoznawania twarzy, rozumienia języka czy odróżnienia bułki od jeża.

Mijały jednak lata i stopniowo okazywało się, że sprawa jest znacznie trudniejsza, niż dotąd sądzono. Wielkie nadzieje ludzkości i wielkie pieniądze funduszy przepadły, a w połowie lat 80. badacze doszli do bolesnych wniosków, które sformułowano w postaci tak zwanego paradoksu Moraveca: "Stosunkowo łatwo sprawić, żeby komputery przejawiały umiejętności dorosłego człowieka w testach na inteligencję albo w grze w warcaby, ale jest trudne albo wręcz niemożliwe zaprogramowanie im umiejętności rocznego dziecka w percepcji i mobilności".

Dlaczego? Być może jednym z wyjaśnień jest wcześniej wspomniana kwestia ewolucji. Matematyka, szachy i inne dziedziny, w których komputery radzą sobie świetnie, to bardzo świeże wynalazki ludzkości. Posługujemy się nimi od tak niedawna, że nie znalazły one żadnego odzwierciedlenia w strukturach mózgu, nie wytworzyliśmy dziedziczonych mechanizmów do ich "obsługi". Inaczej rzecz ma się z rozpoznawaniem twarzy czy jeży - pierwszą z tych czynności mózg ma tak skutecznie wbudowaną, że kilkudniowe niemowlę chętniej patrzy na ludzką twarz niż na inne struktury o podobnym kształcie, kolorze i rozmiarze. O ewolucyjnym znaczeniu odróżnienia jeża od bułki wspominać nawet nie trzeba.

Inwazja obcych

Nauczeni bolesnym doświadczeniem badacze porzucili marzenia o mózgu elektronowym i kierowani już zdrowym pragmatyzmem zabrali się do prac idących w innym kierunku - odtwarzania nie struktur budowy mózgu, ale schematów jego pracy. I to zarówno na poziomie podstawowym, jak choćby kwestii dotyczących podstaw uczenia się, jak i na znacznie wyższym - dostosowywania maszyn do tego, by korzystanie z nich było dla ludzi jak najwygodniejsze.

Ta sprawa zaczęła nabierać znaczenia jeszcze pod koniec lat 80. Wcześniej zwykły człowiek miał do czynienia raczej z urządzeniami elektrycznymi niż elektronicznymi. Do systemów o najwyższym poziomie autonomii należały wtedy mechaniczno-elektryczne programatory do pralek. Kto je pamięta, wie, jak delikatne były to urządzenia. Obowiązywał całkowity zakaz kręcenia magicznym kółkiem od pralki w niewłaściwym kierunku, trzeba było znać tajny kod liczb, liter i piktogramów.

Aż tu nagle, niczym w powieści science fiction, zaczęła się inwazja obcych. Do domów zaczęły trafiać komputery osobiste, najpierw 8-bitowe Spectrum, Commodore i Atari, potem stopniowo maszyny IBM PC. To w tym czasie powstało pierwsze pęknięcie społeczne - rodziny podzieliły się na tych, którzy wiedzieli, jak ten sprzęt obsługiwać, oraz na tych, którzy uznali go za zbędny i woleli nie marnować czasu na "nowomodne nowinki".

Potem jednak nadeszły lata 90. i czas, gdy internet za sprawą usługi WWW zaczął nabierać ludzkiego oblicza. Jednocześnie Microsoft do tej pory słynący z topornych interfejsów użytkownika i upiornie nieprzyjaznego DOS-u wypuścił system Windows 95. Można dyskutować nad tym, czy było to dzieło odkrywcze i wiekopomne, ale jedno jest pewne - towarzyszyła mu gigantyczna kampania promocyjna, której koszt ocenia się na 300 mln dol. Jej efektem była nie tylko świetna sprzedaż systemu, ale też dotarcie do ludzi, którzy do tej pory nie myśleli o komputerze jako o czymś, co mogłoby być im jakkolwiek przydatne.

Więcej... wyborcza.pl/(…)Sztuczna_inteligencja_nadciaga.html…

Gdy boli mózg

W tym samym czasie zaczęły się pojawiać kolejne urządzenia, z którymi kontaktu uniknąć się już nie dało. Połowa lat 90. to wybuch popularności cyfrowej telefonii komórkowej, masowe przechodzenie z kaset na płyty CD oraz stopniowe pojawianie się płyt DVD. Wspólna cecha tych wszystkich urządzeń? Ich obsługa polega na wciskaniu sekwencji klawiszy, za pomocą których poruszamy się po piętrowych, zagnieżdżonych w sobie strukturach. Albo, mówiąc w bardziej zrozumiały sposób, używamy folderów i podfolderów. Proste?

Tak, ale tylko dla tych, którzy wcześniej zdołali liznąć komputerowego świata. Interfejsy odtwarzaczy CD i komórek tworzyli w tamtych czasach ludzie, dla których komputer był naturalnym środowiskiem pracy, rzeczą równie oczywistą jak lodówka i telewizor. Jednocześnie ludzie, którzy z ich projektów korzystali, należeli często do innego świata. Takiego, w którym koncepcja wkładania folderu do folderu, a tego z kolei do innego folderu, wcale nie jest oczywista.

Stopniowo zaczęło się okazywać, że coraz więcej ludzi nie radzi sobie z codziennym sprzętem. Początkowo dotykało to tylko starszego pokolenia, ale stopniowo problem przenosił się też na młodszych. W raporcie "My brain hurts" przygotowanym przez agencję Young & Rubicam pokazano, że grupa tradycyjnie uwielbiająca elektronikę, nastolatki, przestała nadążać za jej rozwojem. Nieliczni potrafili pokazać, do czego służą wszystkie klawisze ich komórki, a jeszcze mniej umiało wymienić bez zaglądania do instrukcji choćby jedną czwartą funkcji odtwarzacza DVD. Większość konsumentów nigdy nie dotyka wszystkich przycisków na pilotach leżących w pokoju, a w pralce korzysta najwyżej z dwóch programów. No cóż - to normalne. Inaczej maszyny by nas zmiażdżyły swoją złożonością.

Mniej, czyli lepiej

Na szczęście pojawili się ludzie, którzy zrozumieli, że coś jest nie tak. Przykład - Apple ze swoim iPodem (dla technozagubionych - to ten pierwszy odtwarzacz muzyczny z 2001 r.). Otóż iPod nie miał wielu funkcji konkurencyjnego sprzętu: radia, migających lampek, złożonych equalizerów. Był za to prosty. I zgarnął 80 proc. rynku.

Jednak sama prostota to za mało. Proszę się rozejrzeć, ile urządzeń elektronicznych leży w tej chwili w promieniu dwóch metrów. Kilka? Kilkanaście? Choć mają nam służyć, to w rzeczywistości wiele z nich narzuca się nam na rozmaite sposoby. Dlatego od kilku lat celem dobrych projektantów elektroniki użytkowej jest takie przygotowywanie sprzętu, by albo radził sobie sam, albo komunikował się z nami w możliwie bezinwazyjny sposób.

Wyniki ich pracy stopniowo stają się coraz ciekawsze i coraz bardziej przypominają to, o czym tak marzymy - inteligentne maszyny. To zasługa jednoczesnego wzrostu mocy obliczeniowej układów scalonych, spadku ich ceny i, co równie ważne, rosnącego doświadczenia i znaczenia projektantów interfejsów. Kilka lat temu pojawiły się odkurzacze roboty. Niskie, okrągłe i płaskie krążą po pokoju, samodzielnie wybierając drogę, omijając przeszkody i wsysając śmiecie. Gdy pojawiły się pierwsze takie urządzenia, miały wbudowane stosunkowo proste algorytmy wyznaczające trasę wędrówki po pomieszczeniu - powinny dotrzeć w jak najwięcej miejsc, ale jednocześnie nie mogły na amen utknąć w jakimś kącie. Kręciły się więc po czymś na kształt spirali lub poruszały, chaotycznie odbijając od przeszkód.

Od niedawna jednak odkurzacze zmądrzały. Samsung Navibot ma na wierzchu obudowy kamerę, którą filmuje sufit ponad sobą. Zapamiętuje charakterystyczne punkty, po to by wiedzieć, gdzie w danym momencie się znajduje, i tak zaplanować trasę, by nie odkurzać ponownie raz już wyczyszczonych miejsc oraz wygodnie omijać przeszkody. Potrafi też wykryć miejsca szczególnie zabrudzone i dokładniej je odkurzyć. Łatwo to opisać, trudniej wymyślić, zaprojektować i zaprogramować. Trudno podziwiać odkurzacz, jednak warto zauważyć, że oto maszyna zyskuje odrobinę inteligencji - nie tylko się uczy, ale też podejmuje autonomiczne decyzje na podstawie zdobytej wiedzy.

Kolejny przykład - aparaty fotograficzne. Te, które tak pogardliwie nazywamy "małpami". Co prawda do małpiej inteligencji bardzo im jeszcze daleko, ale w ciągu ostatnich kilku lat nauczyły się bardzo wiele. Na przykład rozpoznawania tego, co widzą. Na początek - twarzy. Chodziło po prostu o to, by system wiedział, na co wyostrzyć obraz, a ludzka twarz jest zwykle najważniejszym elementem na zdjęciu. Zmierzono więc tysiące twarzy i opracowano algorytm, który wykrywa oczy, nos i usta - zestawy punktów i linii ułożone w charakterystyczny wzór o ściśle określonych proporcjach.

Jak to działa? Zaskakująco dobrze, choć dziwnie. Nawet najlepsze algorytmy opracowane przez Nikona, Canona czy Panasonica radzą sobie dobrze, gdy twarz jest dobrze i równomiernie oświetlona, głowa nie jest przekrzywiona i nie przeszkadzają dodatkowe "zakłócenia" w postaci okularów czy nietypowego zarostu. Z drugiej strony procesory obrazu cierpią na własną odmianę "widzenia cudów". Bardzo często wykrywają twarz w plątaninie materiału czy gałęziach w tle. Co ciekawe, nawet gdy oznaczą ją na ekranie swoją ramką, człowiek nie jest w stanie dostrzec w tym miejscu niczego, co przypominałoby ludzkie oblicze. Jednocześnie nie dostrzegają twarzy w układzie świateł i zderzakach samochodu czy nawet schematycznym rysunku składającym się z dwóch kółek - oczu, kreski - nosa i kreski - ust. Aż by się chciało powiedzieć: "One myślą inaczej".

Porozmawiaj z nią

Najnowszym i szczególnie fascynującym przykładem naśladowania człowieka stała się Siri. To wprowadzony przez Apple w najnowszym telefonie iPhone 4S system rozpoznawania mowy. Kto nie widział, jak to działa, powinien znaleźć czym prędzej jeden z tysięcy filmów dostępnych na YouTubie, gdzie ludzie nagrywają swoje rozmowy z Siri. Wrażenie jest niezwykłe. "Powiedz mi, jaka jutro będzie pogoda" - rzuca beztrosko użytkownik. Mija sekunda czy dwie i maszyna odpowiada przyjemnym głosem: "Głównie słonecznie, ale po południu może popadać. Ciepło". Niby to nic trudnego, ale Siri poradzi sobie ze znacznie trudniejszymi pytaniami. Mam jutro włożyć ciepły płaszcz? Jak daleko jest stąd do Paryża? Kiedy urodził się George Washington? Na każde z tych pytań maszyna odpowiada w kilka sekund.

To kolejny trend w technologiach i kolejny krok w stronę sztucznej "prawieinteligencji". Telefon jest oczywiście za słaby, by mógł sam znaleźć odpowiedzi na te pytania. Więcej - sam nie potrafi nawet zrozumieć pytania. Za to potrafi je błyskawicznie przesłać na serwer Apple, gdzie potężne komputery przeprowadzą wymagający wiele mocy proces rozpoznawania mowy użytkownika, wyszukają odpowiedź, sformułują ją i odeślą na telefon. A wszystko to w ciągu jednej czy dwóch sekund.

Właśnie ten system, czyli praca w chmurze, sprawia, że maszyny uwalniają się od ograniczeń sprzętowych. Na dobrą sprawę wiele z nich mogłoby się składać z mikrofonu, głośnika i modułu łączności z siecią. Reszta może odbywać się na zewnątrz. Jest tylko kwestią czasu (i to krótkiego - stawiam na trzy lata), by na tej zasadzie działały odkurzacze, lodówki, aparaty fotograficzne i samochody. Na dobrą sprawę jedyną przeszkodą jest dziś dostępność, a przede wszystkim - niezawodność sieci. A będzie się ona rozwijała dzięki pieniądzom, które będą płacić mali użytkownicy i wielkie firmy. Bo wszyscy potrzebują się łączyć.

Słudzy w chmurach

Jak to wszystko ma się do sztucznej inteligencji? Narodził się schemat pracy w chmurze, gdzie miliony urządzeń działają niczym zmysły przesyłające dane do centralnych ośrodków, a te odsyłają swoje decyzje. Przypomina to układ nerwowy? Na pewno, ale nie dajmy się ponieść zbytnio fantazji. Skynet, sztuczna inteligencja, która w "Terminatorze" sama narodziła się w wojskowych systemach komputerowych, raczej nam nie grozi - świadomość wydaje się zbyt złożonym wynalazkiem ewolucji, by dała się łatwo odtworzyć.

Dzieje się za to coś równie ciekawego. Otóż systemy, które gromadzą dane, przetwarzają je i uczą się, stopniowo stają się tak podobne do nas, że za kilka lat zapewne rozmowa z nimi stanie się trudna do odróżnienia od rozmowy z drugim człowiekiem, a ich decyzje doskonale będą naśladowały nasze. Niedawno system komputerowy wygrał w specjalnej pokazowej edycji teleturnieju "Jeopardy!". Chodziło o układanie pytań do znanych odpowiedzi na zasadzie: "Był on 34. prezydentem USA" - "Kim był Dwight Eisenhower?". Po kilku rundach maszyna zaczęła zyskiwać przewagę nad ludzkimi graczami, a ostatecznie zwyciężyła, gromadząc kwotę 77 147 dol. Najlepszy człowiek uzbierał 24 tys. dol.

Czy to nie sztuczna inteligencja? Nie, to zbliżone do perfekcji naśladowanie człowieka. Z jedną tylko różnicą - brakiem świadomości. A więc możliwością działania tylko w zaprogramowanym z góry zakresie. I całe szczęście. Potrzebni nam są elektronowi słudzy, a nie elektronowe mózgi.








z11032942X,Profesor-Rodney-Brooks-i-robot-Cog--ktorego-stworzono.jpg
 

kciuk-pl
 
Naukowcy z Politechniki Warszawskiej opracowali inteligentny system dbający o bezpieczeństwo ludzi w przypadku pożaru. Jest to unikalne na skalę światową rozwiązanie oparte na sieci neuronowej.

Link: www.kciuk.pl/Sztuczna-inteligencja-wykorzystana-…
 

kciuk-pl
 
Rosyjskie Ministerstwo Obrony chce w ciągu najbliższych czterech lat stworzyć sztuczną inteligencję, która będzie koordynować działania wojsk podczas operacji zbrojnych.

Link: www.kciuk.pl/Superkomputer-bedzie-dowodzil-armia…
 

kciuk-pl
 
Naukowcy w ramach interdyscyplinarnego projektu FEELIX GROWING stworzyli pierwsze roboty zdolne do okazywania uczuć i emocjonalnego przywiązania do ludzi. Robot w identyczny sposób jak małe dziecko potrafi nauczyć się okazywania ...

Link: www.kciuk.pl/Roboty-okazuja-uczucia-przywiazuja-…
 

kciuk-pl
 
Obwody przetwarzania informacji w komputerze są stałe. Natomiast obwody, przetwarzające i przekazujące informacje w naszych mózgach (neurony) ciągle ewoluują, aby móc rozwiązywać złożone problemy. Obecnie międzynarodowy ...

Link: www.kciuk.pl/Inteligentne-komputery-to-juz-nie-s…
 

kciuk-pl
 
Sztuczna Inteligencja - najgorszy wróg ludzkości tuż po klonach, zombie i mutantach. Oto zestawienie mrożące krew w żyłach (graczom którzy pamiętają komputerowych przeciwników).

Link: www.kciuk.pl/Najstraszniejsze-SI-w-historii-gier…
 

kciuk-pl
 
Sztuczna Inteligencja - najgorszy wróg ludzkości tuż po klonach, zombie i mutantach. Oto zestawienie mrożące krew w żyłach (graczom którzy pamiętają komputerowych przeciwników).

Link: www.kciuk.pl/Najstraszniejsze-SI-w-historii-gier…
 

kciuk-pl
 
Sztuczna Inteligencja - najgorszy wróg ludzkości tuż po klonach, zombie i mutantach. Oto zestawienie mrożące krew w żyłach (graczom którzy pamiętają komputerowych przeciwników).

Link: www.kciuk.pl/Najstraszniejsze-SI-w-historii-gier…
 

kciuk-pl
 
Sztuczna Inteligencja - najgorszy wróg ludzkości tuż po klonach, zombie i mutantach. Oto zestawienie mrożące krew w żyłach (graczom którzy pamiętają komputerowych przeciwników).

Link: www.kciuk.pl/Najstraszniejsze-SI-w-historii-gier…
 

 

Kategorie blogów