Subject:
Re: [st-pti] kilkanaście terminów
From:
"Jarek Deminet" ####@####.####
Date:
17 Sep 2020 20:12:10 +0100
Message-Id: <5F63B4DD.4897.10D89CA0@jarekdem.gazeta.pl>
Maćku,
ja listy nadane przez p. Targowskiego kasuję bez otwierania. Do czego zachęcam Ciebie i innych dyskutantów.
Pozdrawiam
Jarek
Send reply to: "ST PTI" ####@####.####
From: Maciej M. Sysło ####@####.####
Date sent: Thu, 17 Sep 2020 18:49:16 +0200
To: Andrew S Targowski ####@####.####
Copies to: ST PTI ####@####.####
Subject: Re: [st-pti] kilkanaście terminów
>
> Nie boję się Pańskich ostrzeżeń, m
>
>
> czw., 17 wrz 2020 o 18:48 Andrew S Targowski ####@####.#### napisał(a):
> Panie Profesorze:
>
> Z jakiego innego powodu nie może się bronić?
> Był osobą publiczną, która spowodowała olbrzymie
> reperkusje swą dzialanością i jak każda tego typu osoba podlega
> ocenie nie limitowanej śmiercią.
>
> Wg. Pan Profesora opinii działacze PRL, których polityka
> działała na szkodę obywateli i Polski nie mogą podlegać ocenie.
> Czyżby? Niech Pan przekona o swej słuszności najpierw IPN
> a potem poucza mnie.
>
> Ostrzegam Pana, bo "trafiła kosa na kamień".
>
> AT
>
>
> From: Maciej M. Sysło ####@####.####
> Sent: Thursday, September 17, 2020 9:36 AM
> To: ST PTI ####@####.#### Andrew S Targowski ####@####.####
> Subject: Re: [st-pti] kilkanaście terminów
>
> Szanowny Panie Profesorze,
> Profesor Władysław M. Turski nie żyje od kilku lat,
> dla spokoju Jego Duszy,
> mógłby Pan wreszcie zaprzestać osobistych wycieczek
> pod jego adresem
> Również z innego jeszcze powodu - nie może się bronić.
> Z poważaniem, Maciej M Sysło
>
> czw., 17 wrz 2020 o 18:26 Andrew S Targowski ####@####.#### napisał(a):
> Ma Autor rację, nie mnożyć nowych bytow terminologicznych sugerujących
> "dokładniejsze" definiowanie spraw. Tak jak kiedyś nie chciano zgodzić się na
> "komputer" (WNT z doractwem prof. Wł. T. z UW). I trzymano się rosyjskiego EMC.
> Lub proponowano termin"liczułka" a dla weekandu "wyraj".
>
> Autor ma rację co do płytkości tego typu semantyk, czyli ograniczonej wiedzy co do
> treści procesów.
> To wpisuje się w politykę wyjścia Polski z UE aby być "wreszcie" być sobą. Ja jednak
> wole być w UE i posługiwać się terminami ogólnie przyjętymi w świecie, choćby z
> jakiegoś powodu ułomnymi, tak jak ów rzekomy "komputer".
>
> From: Andrzej Dyżewski, pt ####@####.####
> Sent: Wednesday, September 16, 2020 4:17 PM
> To: 'ST PTI' ####@####.####
> Subject: [st-pti] kilkanaście terminów
>
> Esej terminologiczny Krzysztofa Michalika z pokrewnej Grupy w Twarzętniku
>
> @dy
>
> +++++++++++
>
> Krzysztof Michalik
> 4 godz.
> Refleksja nad wartością znajomości historii nauki, przynajmniej własnej dziedziny,
> oraz nadmiarową terminologią. Być może te uwagi nadawałyby się do grupy dot.
> terminologii w informatyce, niezwykle cennej inicjatywy, ale myślę, że ten "post" jest
> trochę za długi by gościł tam, ponadto odzwierciedla moje subiektywne (!) poglądy.
> Od pewnego czasu zastanawiam się nad sensem terminu "Deep Learning", nawet nie
> tłumaczonego w polskiej literaturze. Czy ten termin, dosłownie "Głębokie uczenie" ma
> sens? Jeśli zajrzymy do literatury przedmiotu z AI (tego akurat akronimu nie tłumaczę,
> bo polskie SI rodzi silne skojarzenia z "Systemami Informatycznymi" lub zależnie od
> kontekstu "Systemami Informacyjnymi", także używanymi w literaturze z dziedziny
> informatyki), to najczęściej i tak zakres tych publikacji dotyczy SSN (ang. ANN) z
> wieloma warstwami. Wg wielu definicji by uznać SSN za "głęboką", to wystarczy by
> miała więcej niż 2 warstwy ukryte (nie będę tu podawał wielu przykładów definicji z
> literatury amerykańskiej). Czyli SSN autora o nazwie Neuronix spełnia to kryterium już
> od ok. 1990 roku (dopuszcza do 3 skutecznie działających warstw ukrytych).
> Wracam jednak do kwestii sensu tego terminu. Z tego wynika, że rozsądniej byłoby
> pisać o Głębokich Sieciach Neuronowych (z powodu wielu warstw), czyli GSN,
> zwłaszcza, że w dobrych pracach anglojęzycznych pojawia się właśnie ten
> postulowany przeze mnie wariant jako DNN (Deep Neural Networks). Można by
> bardziej poprawić precyzję tego określenia na np. SSN z pogłębionym uczeniem,
> bowiem użycie "wielowarstwowe" już powstało dużo wcześniej i może być związane z
> Perceptronem Wielowarstwowym (ang. Multilayer Perceptron). A może człowiek uczy
> się głęboko? Tak też nie da się uzasadnić terminu Deep Learning. Badania
> neurologiczne ustaliły, że kora mózgowa to dokładnie 6 warstw neuronów (o grubości
> do ok. 5-6 mm), do tego zorganizowanych w lokalnych kolumnach. Nawet jeśli
> odnieść tę "głębokość" do myślenia, to też nie odpowiada rzeczywistości, bowiem
> poza faktycznie pogłębionym, analitycznym myśleniem, ludzie często działają
> "intuicyjnie", niejako na skróty, więc powierzchownie - czasami używamy na to
> określenia heurystyka.
> Powstają zatem nowe byty terminologiczne IMHO zupełnie zbędne, jak kiedyś
> ontologia (oczywiście sam czasami tego terminu używałem, ale z oporami). Te opory
> mógł mieć każdy nieco starszy naukowiec, który doskonale znał pojęcie
> "Reprezentacji Wiedzy" (ang. Knowledge Representation - KR). A może ontologie
> miały jakiś specyficzny wyróżnik, niczym bezobjawowy objaw/symptom? Nie, one
> doskonale opisywały/opisują struktury hierarchiczne (dendrytowe, nawet bez
> wielodziedziczenia). Czy tego już nie znano wcześniej? Oczywiście tak! Należy
> sięgnąć do teorii ram (ang. frame theory). Nb. "frames" błędnie przez kogoś
> przetłumaczona jako ramy, ale trudno było iść pod prąd, bo "ramy"/frames były w
> zamyśle twórcy (Marvin Minsky) analogią klatek/kadrów filmowych. Dlatego bardzo
> konsekwentnie popełniono drugi błąd, tłumacząc ang. Slots jako klatki, czyli powstało
> swego rodzaju zapętlenie definicji. AI, a w jej ramach KR z teorią ram wpłynęły na
> rozwój języka Smalltalk-80 (opracowany w laboratorium firmy Xerox, "ortodoksyjny",
> pierwszy stricte obiektowy język, piękny w swej konsekwencji struktur hierarchicznych
> i abstrakcji np. superklas czy metaklas). Smalltalk-80 wraz z językiem Simula dał
> początek pierwszym popularnym językom programowania obiektowego
> (C++ -> C#, Pascal obiektowy itd.). Czy więc ontologie nadal mają jakiś wyróżnik
> abstrakcyjny? Ontologia to termin z dziedziny filozofii bytu, czyli niemal wszystkiego,
> czy to na pewno było dobre zapożyczenie? To na marginesie o pytanie, czy termin
> "Deep learning" ma jakikolwiek sens i czy naukowcy z USA musieli go użyć? Ci nie
> znający historii SSN być może tak. Ale to moja opinia
> https://static.xx.fbcdn.net/images/emoji.php/v9/ta5/1.5/16/1f642.png:)
> Ten post wynika z obserwowanego przeze mnie ostatnio mnożenia językowych "bytów
> ponad potrzebę". Nagle poza Big Data pojawia nam się Data Science i wiele
> wariantów np. Data Engineering itd. itp. Czyli "stara dobra" sztuczna inteligencja" i
> "sieci neuronowe" (SSN) już nie istnieją? Wspomniałem o tym już jakiś czas temu na
> moim skromnym blogu, na stronie domowej WWW. Do czego to prowadzi? Do
> delikatnie mówiąc dziwnych pomysłów, wynikających z "przyklejania" się do AI przez
> specjalistów z innych dziedzin bo po raporcie Lighthila i "zimie" w AI, potem znowu
> ożywienia za sprawą systemów ekspertowych (SE) oraz Projekcie Komputerów Piątej
> Generacji (Japonia) przewidzianym na 10 lat i kolejnej zimie naukowej w AI, od około
> 2012 znowu obserwujemy ocieplenie, a nawet upały w rejonie AI ! Stąd kto może
> pędzi w tę stronę wraz z humanistami i ... transhumanistami (tym warto poświęcić
> więcej uwagi, bo to co oni głoszą powinno rozsądnym naukowcom, specjalistom z AI
> czy nauk ścisłych "zjeżyć włos na głowie", a na pewno zapalić czerwoną lampkę!
> Może kiedyś napiszę o tej absurdalnej ideologii (na blogu już co nieco napisałem),
> tylko odkrywam po niedawnych wizytach w 2 szpitalach, że na FB wszystko robi się
> łatwiej niż w CMS, a czas zaczyna mieć znaczenie większe niż kiedyś.
> Otóż latem ub. roku byłem zaproszony do grupy eksperckiej mającej wypracować
> strategię rozwoju AI w Polsce w ramach szerszego projektu w UE. Brałem tam
> aktywny udział i pewnego dnia wśród zgłaszanych pomysłów na projekty, w które
> powinno się inwestować usłyszałem..."maszyny statystyczne" ! Początkowo,
> myślałem, że mimo 40 lat zajmowania się informatyką, coś przegapiłem, ale
> wszechwiedzący Google dał zero (null/nil) wyników. Zgłosiłem uwagę, że to nie ma
> sensu i została zaakceptowana, na szczęście dla Polski chyba
> https://static.xx.fbcdn.net/images/emoji.php/v9/ta5/1.5/16/1f642.png:) To
> prawdopodobnie był efekt wspomnianego swobodnego żonglowania ostatnio
> mnogością terminów, które rodzą się szybciej niż wypełniająca je treść. Morał dla
> mnie? Nie mnożyć językowych bytów ponad potrzebę, a do tego nie dokonywać
> podmiany semantycznej (neosemantyzacja) lub wręcz wypełniać je pustką
> semantyczną (void!)
> https://static.xx.fbcdn.net/images/emoji.php/v9/ta5/1.5/16/1f642.png
> +++++++++++
>
>
>
> --
>
> http://mmsyslo.pl/
> Wiki: https://pl.wikipedia.org/wiki/Maciej_Marek_Sysło
> Inicjatywa: http://mmsyslo.pl/godzina-kodowania/
>
>
> Konkurs: http://www.bobr.edu.pl/
> Olimpiady: https://www.oij.edu.pl/; https://www.oi.edu.pl/
>
>
>
> --
>
> http://mmsyslo.pl/
>
> Wiki: https://pl.wikipedia.org/wiki/Maciej_Marek_Sysło
> Inicjatywa: http://mmsyslo.pl/godzina-kodowania/
>
> Konkurs: http://www.bobr.edu.pl/
> Olimpiady: https://www.oij.edu.pl/; https://www.oi.edu.pl/
>
--
Ta wiadomość została sprawdzona na obecność wirusów przez oprogramowanie antywirusowe Avast.
https://www.avast.com/antivirus