Dnes budeme hovoriť o tom, ako „neškodí“ alternatívna medicína, potom nám Martir povie o „alternatívnych“ detektoroch bômb a jOin3r nám vysvetlí, čo to vlastne dokázal IBM Watson a či prelomil Turingog test.

Témy :

  1. Ako „neškodí“ alternatívna medicína
  2. Virgule ako detektory bômb
  3. IBM Watson
  4. Fakt a fikcia
[spoiler title=“Zdroje“ style=“fancy“] [/spoiler]

26 Replies to “Pseudocast #143 – Alternatívna medicína, virgule, IBM Watson

  1. O turingovom teste existuje kopec literatury v odboroch filozfie mysle,
    psychologii, neurovied atd. V skratke, Turingov test spociva v tom, ze ak clovek nevie rozoznat ci
    interaguje s clovekom alebo pocitacom, tak musime priznat, ze pocitac s
    ktorym v skutocnosti interaguje vie mysliet. Velmi casto sa v literature vycita tomuto testu tzv. product/process falacy. Aj keby sa pozitacu naozaj podarilo Turingov test
    prelomit, stale nemozno povedat, ze pocitac vie mysliet.

    Casto citovanou kritickou odpovedou na Turingov test je John Searle a jeho chinese room. Predstav si miestnost v ktorej je zavrety Anglican, ktory sice nevie po Cinsky ale ma manual v Anglictine, ktory mu umozni perfektne korelovat jeden set cinskych znakov s druhym setom cinskych znakov. Ak mu pride sprava cez otvor na jednej strane izby napisana po cinsky, pozrie do manualu a priradi spravnu odpoved zasa po cinsky, cez otvor na druhej strane izby. Z toho, ze ten Anglican dokaze k poziadavkam priradzovat spravne odpovede nemozno automaticky dojst k zaveru, ze naozaj chape vyznam toho co sa ho pytaju.

    Otazka na ktoru odpoveda Turingov test tak nie je empirickeho charakteru ale konceptualneho charakteru. Turingov test neodpoveda na otazku, kedy vieme, ze pocitac dokaze mysliet. Odpoveda na otazku co sme v skutocnosti ochotny nazvat „myslenim“. A odpoved ktoru dava, je prinajmensom neuspokojiva.

    1. Pre mňa by odpoveď bola uspokojivá (ak by niekto naozaj prelomil Turingov test).
      Nie je to čo píšeš umelá dichotómia?
      Ja predsa môžem povedať, že aj ty si chinese room. Mne aj proces myslenia pripadá ako komplexná chinese room, ktorá reaguje na vonkajšie podnety. V momente, kde by si bol nerozlíšiteľný od počítača (ktorý by prelomil turingov test) by som nepovedal, že počítač „nemyslí“ ale ty áno iba preto, že by som lepšie poznal procesy rozhodovania toho počítača a vedel iba veľmi málo o tvojich procesoch. Povedal by som, že obaja myslíte, pretože nie som schopný rozoznať jedno od druhého.

      1. Akurat pocuvam vasu predoslu cast kde ste Chinese room diskutovali trosku v predoslej casti. V Chinese room ide o to, ze ten Anglican v nej nechape vyznam ani otazky ani odpovede. Myslenie ludskej osoby spociva v intencionalnom pouzivani symbolov (jazyka). Pocitac, ktory len mechanicky priradzuje odpovede k otazkam na zaklade predefinovaneho kluca nema ziadnu intencionalitu. Nazyvat takuto schopnost pocitaca myslenim tak zasadne degraduje vyznam tohto slova.

        Searle povodne pouzil chinese room argument proti kognitivnym vedcom, ktori podla neho nespravne pouzivali computational modely na studium ludskeho myslenia. V najnovsej filozfii kognitivnych vied sa ale poukazalo na to, ze Searle sa mylil. Dnes sa robi rozdiel medzi A) procesmi na molekularnej urovni v mozgu a B) myslenim, ktore prebieha v diskurze (tvrdenie, ze mozog mysli je mereological falacy). Chinese room alebo iny computational model nemoze byt adekvatnym modelom na studium B, ale moze byt adekvatny na studium A.

      2. Budem reagovať iba ku relevantným častiam:
        „Pocitac, ktory len mechanicky priradzuje odpovede k otazkam na zaklade predefinovaneho kluca nema ziadnu intencionalitu.“
        Ak dáme počítaču intenciu predať nám šampón, tak bude bude mať intencionalitu. Problém toho, že mechanicky priradzuje odpovede, kde to slovo „mechanicky“ sa kľudne dá použiť aj pre človeka, kedže to slovo využívaš na popis mechanizmu. Ostáva tam potom už iba to, že je to preddefinovaný kľúč, ale počítače používajú naše slová a ten kľúč sa mení podľa vstupov. Myslím, že potom asi ťažko nájdeš rozdiel medzi nami a preddefinovaným kľúčom.
        „Nazyvat takuto schopnost pocitaca myslenim tak zasadne degraduje vyznam tohto slova.“
        Ako? Viem, že máš (na rozdiel od mňa) rád definície tak to môžeš skúsiť ale myslím, že by bol problém zadefinovať význam slova myslenie bez toho aby to nezahrňovalo počítač, ktorý na jednej strane prejde turingovým testom a na druhej strane nebude konkrétny iba pre človeka (ako napr. myslenie je schopnosť _človeka_).

      3. Pocitac ktory naprogramujes aby preadval sampon nebude pouzivat slova intencionalne v zmysle akym by pouzival slova na predanie samponu Jozko. Pocitac „nevie“ ze predava sampon. Nepozna ani co to „sampon“ vlastne je, ale len mechanicky vykonava prikaz ktory si mu zadal. Iste, Jozko moze byt unaveny a „mechanicky“ predavat jeden sampon za druhym, ale vyznam slova mechanicky je v oboch pripadoch zasadne odlisny; Jozko totiz pozna vyznam svojej cinnosti – „vie“, ze predava sampon. Povedat, ze pocitac ktory nepozna vyznam toho co robi „mysli“, vedie z hladiska modernej neurovedy k vedeckym absurdnostiam.

      4. Počítač vie čo je jeho cieľom. Chce predať šampón a je to rovno v jeho kóde aj pamäti. Tak isto to, že my vieme čo je šampón a počítač nie, nie je dôležité. Môžme dať človeku úlohu predať nejaký kód, ktorému nebude rozumieť a určite nepovieš, že ten človek nie je mysliaci. Slovo „mechanicky“ má nejaké citové nabitie, ale racionálne nevidím rozdiel.
        „…vedie z hladiska modernej neurovedy k vedeckym absurdnostiam.“ napríklad akým?

      5. To, ze ma predanie samponu v pamati, neznamena ze „vie“ co robi – pocitac nepozna VYZNAM toho co robi, ani slov, ktore pouziva.

        Absurdnost ku ktorej tento pohlad v minulosti viedol (a bol nasledne prekonany) je mereological falacy, ktoru som spominal vyssie (ono to spolu suvisi). Kognitivni vedci, ktori pouzivali komputacne modely na deskripciu funkcii mozgu, popisovali mozog nespravym jazykom: „mozog mysli“. Ak computational model mysli, tak potom aj mozog mysli. Je kopec vyskumu, ktory poukazuje na to, ze kognitivne ulogy nie su vykonavane mozgom, ale osobou (person). Toto uz je prilis hard-core na to aby som to tu jednoducho vysvetlil, ale zacat mozes napriklad tu: http://journals.cambridge.org/action/displayAbstract?fromPage=online&aid=8610724&fileId=S0031819112000241

      6. Ja nemôžem vedieť, že ty poznáš význam slov, ktoré používaš. Poznanie tých slov môže byť tak isto banálne ako poznanie dostatočne zložitého algoritmu v počítači. Nemôžem povedať, že len preto, že daný algoritmus poznám automaticky nie je relevantný a je „mechanický“.
        To čo si pastol nie je relevantné ku tomu o čom rozprávam. Nikde som nehovoril, že mozog myslí a neviem ako sa to vzťahuje na to o čom píšem. Ako som hore písal, ja si nemyslím ani som nikdy nehovoril, že počítač ktorí prejde turingovým testom môžme použiť na štúdium ľudského myslenia.
        Ja len hovorím, že mne stačí ak prejde turingovým testom resp. aby som nebol schopný rozoznať či ide o človeka alebo nie, na to aby som to považoval za „mysliacu“ bytosť.

      7. jj problem u vas dvoch je v tom ze Slanina si to zadefinoval dobre ale Joiner sa pyta ok ukaz mi rozdiel medzi tymito dvoma vecami na nejakej meratelnej urovni… lebo ja napr viem ze pisem tieto riadky ale skuste mi to dokazat ze to viem….

      8. Keby som dokazal presne zadefinovat co je to ludske myslenie na „meratelnej urovni“ tak by som bol akademicka hviezda; pozyvali by ma na najprestiznejsie univerzity po celom svete; a ITckari by zacali produkovat jedneho terminatora za druhym. Cela moja pointa bola len to, ze Turingovim testom sa neda empiricky dokazat ci dany pocitac dokaze mysliet. To je cele. Pocitac co prejde Turingovym testom sa po teste da stale rozobrat a software v jeho pamati rozanalyzovat – a potom clovek hned pride na to, ze tam bol len predefinovany kluc na zaklade ktoreho program priradzoval k inputo outputy.

      9. nj lenze ty nevies ci o par rokov takto nerozoberu ludsky mozog a nenajdu a presne nezadefinuju ten kluc…

      10. Aha OK, ak vravis LEN ze to staci TEBE tak fajn. Ja vravim, ze z toho, ze clovek nemoze z interakcie rozoznat ci je pocitac mysliaca bytost automaticky LOGICKY nevypliva, ze je to mysliaca bytost. Stale je tu moznost, ze dany pocitac nepozna vyznam slov ktore dostava a odpovedi ktore podava. Nazvat takyto mechanicky proces myslenim je degradacia slova myslenie. Ja som si celkom isty aj o sebe aj o tebe, ze obaja pozname vyznam slov ktore v tejto konverzacii pozuivame, a ze ich pouzivame intencionalne, nie mechanicky podla vopred vypracovaneho kluca. Ani ja ani ty sme pri narodeni nedostali manual na to ako si vzaojmne odpovedat.

  2. podla mna ta chinese room je iba o nezaveznej konverzacii… ale podla mna je rozdiel medzi chinese room a inteligenciou ten ze ked mu napisu ze ideme zbombardovat chinese room tak sa clovek ktory je vnutri bude branit (ak sa nechysta spachat samovrazdu) teda inteligencia robi rozhodnutia take aby dosiahla co chce teda tma mozeme badat nejaky ciel pritom pri chienese room tam ciel nebude a cim dlhsie budeme viest rozhovor tym vecsia sanca na odhalenie

    1. Človek vnútri nevie po čínsky 🙂 A odpovede v tej miestnosti by mohli byť také aby sa bránili.
      Mne pripadá, že medzi dostatočne dobrou a zložitou chinese room a nami nie je podstatný rozdiel. Možno aj ja som iba chinese room a tvárim sa, že mám cieľ ale v skutočnosti iba sledujem veľmi zložitý proces kde reagujem na vstupy. 😀

      1. no dobre lenze tie odpovede vnutri su obmedzene a nevyplyvaju z toho co ten clovek naozaj chce… teda napr pri spytani sa na tu istu otazku mozeme dostat rozdielne odpovede a to aj ked toho cloveka motivujeme aby neodpovedal inak… v chinese room by odpovede na mame vyhodit chinese room do vzduchu boli nahodne… teda mozeme sa spytat inym sposobom a mali by sme dostat rovnaku odpoved…

        ja viem ze to ma vela s motivaciou a aj s tym ci by skutocny clovek vzdy pochopil co sa ho pytaju…

      2. ja zase mozem argumentovat ze spravim za polhodku program ktory napr bude pisat nahodne slova a takisto nemoze nikto s urcitostou povedat ze to nepise clovek ktory si robi prdel

      3. Neviem či rozumiem argumentu.
        Ale tu sa asi prirovnanie počítača s chinese room rozpadá. Ale keď budeme opakovať vstup – napríklad 10x povieme „Chceš banán?“ tak chinese room bude vždy odpovedať iba „Áno“. Počítač však bude svoju odpoveď meniť „Ano“, „Hej“, „Jasné“ atď.
        Otázka konzistencie odpovedí je potom už iba problém komplexnosti procesu, ktorým odpovedá.

      4. ja som tym myslel ze pocitac povie ano hej jasne a clovek povie hej ale ked sa naje tak uz povie nie….pocitac tiez moze ale povedat nie a potom hej…lenze inteligencia je o tom ze napr nepoviem len ano chcem ale podniknem aj ine kroky ktore budu viest k ziskaniu bananu

      5. Ak by si „iba reagoval na vstupy“ v zasade by si bol iba zobie. Toto je stary behavioristicky pohlad, podla ktoreho by sa dalo dostatocnym studium vstupov a vystupov prist na koren principov myslenia. Behaviorizmus stal na implicitnom predpoklade, ze mozog je zlozity mechanizmus, ktory na zaklade nejakej nesmierne zlozitej matematickej funkcie reaguje na vstupy urcitymi vystupmi. Lenze, neuralna struktura sa ukazala byt plasticka. Neuralne spojenia sa dynamicky zosilnuju alebo slabnu, Vytvaraju sa nove prepojenia a zanikaju stare. V pocitacovom jazyku: je to program ktory za chodu sam seba preprogramuvava. Zhrnute: zachytavanim vstupov a vystupov sa k principom myslenia nedostanes. Tvoj predpoklad je tak z vedeckeho hladiska konceptualne nepriechodny.

      6. Ani v jednom z mojich príspevkov nehovorím, že sa týmto dá dostať ku štúdiu princípu myslenia a ani si to nemyslím. Ohľadom behaviorizmu si prečítaj moju odpoveď pre Jožka.
        Aj veľmi jednoduché chatovacie roboty „preprogramovávajú“ svoje response. Tak napríklad aj cleverbot používa meme atď.

      7. Ja hovorim, ze ak by tvoj predpoklad bol spravny, tak by viedol k nejakym pozitivnym vysledkom v starom kognitivistickom programe a behaviorizme, ktore pouzili rovnaku premisu aku si spomenul. Pocitac nedokaze preprogramovat program ktorym sa preprogramovava.

      8. „Pocitac nedokaze preprogramovat program ktorym sa preprogramovava.“
        Dovolím si odporovať. V tomto je strop počítača oveľa vyššie ako u človeka, lebo človek nedokáže zmeniť niektoré časti svojho mozgu, alebo svojho rozmýšľania.

      9. Mozes mi dat priklad programu ktory dokaze menit sposob akym sa preprogramovava?

      10. Moving goalpost? 😀
        1. Program ktorý sa sám preprogromováva je napríklad každá neurónka.
        2. Program, ktorý mení spôsob akým sa preprogramováva nepoznám. Ale zase ani mozog nedokáže preprogramovať chemické procesy a fyzikálne zákony, takže táto latka je asi privysoko 😉

      11. Samotny mozog praveze dynamicky meni charakter fyzikalnych, chemickych a biologickych procesov ktore podmienuju sposob jeho fungovania. Mozog neustale meni svoju neuronovu strukturu, a forma neuronovej struktury vymedzuje moznosti jej dalsej zmeny a celkoveho fungovania. Vnemy prichadzajuce zo senzorimotorickeho systemu ovplyvnuju neuronovu siet, a ta zasa noapk vymedzuje charakter vnemov. Tak napriklad tazka dlhodoba depresia ovplyvni neuronovu strukturu, hladinu chemickych zlucenin v mozgu ako aj dalsie biologicke faktory na zaklade ktorych samotny mozog funguje. Clovek tak vnima svet okolo seba pesimisticky, a tieto nove pesimisticke vnemy zasa nasledne ovplyvnia fungovanie mozgu, co zasa ovplivni vnimanie, a to zasa fungovanie mozgu, a tak dalej dookola.

Napísať odpoveď pre join3r Zrušiť odpoveď

Vaša e-mailová adresa nebude zverejnená. Vyžadované polia sú označené *

Táto webová stránka používa Akismet na redukciu spamu. Získajte viac informácií o tom, ako sú vaše údaje z komentárov spracovávané.