Goto page Previous 1, 2, 3 Next
Mirek
Guest
Sat Mar 28, 2026 10:23 pm
W dniu 28.03.2026 o 20:26, Ghost pisze:
Quote:
Sęk w tym, że "pamiętał".. 0
No i tutaj właśnie ujawnia się bezsens budowania AI na wzór
biologicznej. Skoro już muszą być neurony, bo nie potrafimy inaczej, to
wyposażmy je w pamięć "nieulotną".
Ja chciałbym mieć takiego osobistego asystenta AI, który powie mi co
zrobiłem 10 lat temu żeby naprawić coś tam, bo będzie to pamiętał,
będzie miał zapisane a nie oszacuje na 30,43244% że to mogło być to.
A jak nie będzie mógł znaleźć jednoznacznie w pamięci to dopyta.
Tutaj ciekawy problem dla odskoczni:
https://youtu.be/bKEsIF1Nnio?t=1178
--
Mirek
x
Guest
Sat Mar 28, 2026 11:29 pm
W dniu 28.03.2026 o 21:23, Mirek pisze:
Quote:
Sęk w tym, że "pamiętał".. 0
No i tutaj właśnie ujawnia się bezsens budowania AI na wzór
biologicznej. Skoro już muszą być neurony, bo nie potrafimy inaczej, to
wyposażmy je w pamięć "nieulotną".
Ja chciałbym mieć takiego osobistego asystenta AI, który powie mi co
zrobiłem 10 lat temu żeby naprawić coś tam, bo będzie to pamiętał,
będzie miał zapisane a nie oszacuje na 30,43244% że to mogło być to.
A jak nie będzie mógł znaleźć jednoznacznie w pamięci to dopyta.
Problem w tym, że nie zapytałeś czy pamięta

...inna sprawa, to takie
AI są, tylko trzeba zapłacić :)
Quote:
Jednym i drugim można wbijać gwoździe ale młotek jest bardziej wygodny.
Facet opowiada, że arkusz excela ma do niego mówić i zgadywać.
Generalnie arkusz już to robi ale zamiast pisać prompty do AI to należy
je wpisać do arkusza :)
--
Pixel
Albo PiS albo Polska
Ghost
Guest
Sun Mar 29, 2026 12:58 pm
W dniu 28.03.2026 o 21:23, Mirek pisze:
Quote:
W dniu 28.03.2026 o 20:26, Ghost pisze:
Sęk w tym, że "pamiętał".. 0
No i tutaj właśnie ujawnia się bezsens budowania AI na wzór
biologicznej. Skoro już muszą być neurony, bo nie potrafimy inaczej, to
wyposażmy je w pamięć "nieulotną".
Ale to nie kwestia pamiec ulotna vs nieulotna. Przeciez LLM mogl byc
karmiony danymi z liczba "0"
Mirek
Guest
Sun Mar 29, 2026 1:23 pm
W dniu 29.03.2026 o 12:58, Ghost pisze:
Quote:
Ale to nie kwestia pamiec ulotna vs nieulotna. Przeciez LLM mogl byc
karmiony danymi z liczba "0"
Ja co innego podejrzewam. Te zmienne OIDP mają z reguły wartość 0 lub 1.
Zwykle nikt nie pamięta na jaką wartość przestawić, bo przestawia się na
przeciwną. Model wie że ma być przestawiona, i że większość zmiennych w
różnych przypadkach przestawia się na 0. To może być 50.0001% większość
ale jednak.
--
Mirek
J.F
Guest
Sun Mar 29, 2026 1:55 pm
On Fri, 27 Mar 2026 21:34:18 +0100, Jarosław Sokołowski wrote:
Quote:
Pan Mirek napisał:
pomylił się przy formułowaniu odpowiedzi? Ludziom też się to zdarza.
Zwłaszcza jak nie pamiętasz. Gdybym to kiedyś raz w życiu robił też
bym raczej nie pamiętał czy było to 0 czy 1.
Ale można powiedzieć "ustaw zmienną x, wartości nie pamiętam" -
zamiast halucynować.
Istnieje zakorzenione przekonanie, że komputery z zasady nie mogą się
mylić. Bo niby to stwór binarny, zero albo jeden i nic po środku. To
Klasyczne programy i procesory tak działają.
Quote:
nie tak działa. Model opiera się na czymś, co podobne jest do ludzkiej
intuicji. Czyli nagromadzeniu doświadczeń i obserwacji. Takie widać
było jego pierwsze skojarzenie, że ma być zero.
No, akurat mam taki jeden program, gdzie jest parametr 0 lub 1,
wedle programisty - w zależności od ustawiania program wybiera jedną
lub drugą metodę wydruku, i czasem się okazuje, że jedna działa
gorzej, lub druga. Bo zasadniczo obie powinny działać.
J.
Ghost
Guest
Sun Mar 29, 2026 4:11 pm
W dniu 29.03.2026 o 13:23, Mirek pisze:
Quote:
W dniu 29.03.2026 o 12:58, Ghost pisze:
Ale to nie kwestia pamiec ulotna vs nieulotna. Przeciez LLM mogl byc
karmiony danymi z liczba "0"
Ja co innego podejrzewam. Te zmienne OIDP mają z reguły wartość 0 lub 1.
Zwykle nikt nie pamięta na jaką wartość przestawić, bo przestawia się na
przeciwną. Model wie że ma być przestawiona, i że większość zmiennych w
różnych przypadkach przestawia się na 0. To może być 50.0001% większość
ale jednak.
alerzeco? nie bardzo rozumiem do czego zmierzasz
Ghost
Guest
Sun Mar 29, 2026 4:14 pm
W dniu 29.03.2026 o 13:55, J.F pisze:
Quote:
On Fri, 27 Mar 2026 21:34:18 +0100, Jarosław Sokołowski wrote:
Pan Mirek napisał:
pomylił się przy formułowaniu odpowiedzi? Ludziom też się to zdarza.
Zwłaszcza jak nie pamiętasz. Gdybym to kiedyś raz w życiu robił też
bym raczej nie pamiętał czy było to 0 czy 1.
Ale można powiedzieć "ustaw zmienną x, wartości nie pamiętam" -
zamiast halucynować.
Istnieje zakorzenione przekonanie, że komputery z zasady nie mogą się
mylić. Bo niby to stwór binarny, zero albo jeden i nic po środku. To
Klasyczne programy i procesory tak działają.
LLM tez, przeciez to leci na "zwyklej" (tyle, ze dosc mocnej) maszynie.
J.F
Guest
Sun Mar 29, 2026 5:57 pm
On Sun, 29 Mar 2026 16:14:05 +0200, Ghost wrote:
Quote:
W dniu 29.03.2026 o 13:55, J.F pisze:
On Fri, 27 Mar 2026 21:34:18 +0100, Jarosław Sokołowski wrote:
Pan Mirek napisał:
pomylił się przy formułowaniu odpowiedzi? Ludziom też się to zdarza.
Zwłaszcza jak nie pamiętasz. Gdybym to kiedyś raz w życiu robił też
bym raczej nie pamiętał czy było to 0 czy 1.
Ale można powiedzieć "ustaw zmienną x, wartości nie pamiętam" -
zamiast halucynować.
Istnieje zakorzenione przekonanie, że komputery z zasady nie mogą się
mylić. Bo niby to stwór binarny, zero albo jeden i nic po środku. To
Klasyczne programy i procesory tak działają.
LLM tez, przeciez to leci na "zwyklej" (tyle, ze dosc mocnej) maszynie.
Tylko program mało klasyczny.
I jakoś się uczy na bieżąco.
J.
Ghost
Guest
Sun Mar 29, 2026 6:15 pm
W dniu 29.03.2026 o 17:57, J.F pisze:
Quote:
On Sun, 29 Mar 2026 16:14:05 +0200, Ghost wrote:
W dniu 29.03.2026 o 13:55, J.F pisze:
On Fri, 27 Mar 2026 21:34:18 +0100, Jarosław Sokołowski wrote:
Pan Mirek napisał:
pomylił się przy formułowaniu odpowiedzi? Ludziom też się to zdarza.
Zwłaszcza jak nie pamiętasz. Gdybym to kiedyś raz w życiu robił też
bym raczej nie pamiętał czy było to 0 czy 1.
Ale można powiedzieć "ustaw zmienną x, wartości nie pamiętam" -
zamiast halucynować.
Istnieje zakorzenione przekonanie, że komputery z zasady nie mogą się
mylić. Bo niby to stwór binarny, zero albo jeden i nic po środku. To
Klasyczne programy i procesory tak działają.
LLM tez, przeciez to leci na "zwyklej" (tyle, ze dosc mocnej) maszynie.
Tylko program mało klasyczny.
I jakoś się uczy na bieżąco.
a co to niby jest "klasyczny program" w twoim swiecie?
Mirek
Guest
Sun Mar 29, 2026 6:47 pm
W dniu 29.03.2026 o 16:11, Ghost pisze:
Quote:
W dniu 29.03.2026 o 13:23, Mirek pisze:
W dniu 29.03.2026 o 12:58, Ghost pisze:
Ale to nie kwestia pamiec ulotna vs nieulotna. Przeciez LLM mogl byc
karmiony danymi z liczba "0"
Ja co innego podejrzewam. Te zmienne OIDP mają z reguły wartość 0 lub
1. Zwykle nikt nie pamięta na jaką wartość przestawić, bo przestawia
się na przeciwną. Model wie że ma być przestawiona, i że większość
zmiennych w różnych przypadkach przestawia się na 0. To może być
50.0001% większość ale jednak.
alerzeco? nie bardzo rozumiem do czego zmierzasz
Wyjaśniłem skąd się wzięło to 0.
Najciekawsze, że tam nigdzie po drodze w tej sieci neuronowej nie będzie
tego wyniku 50,0001%. To może nawet wynikać stąd, że po wyrażeniu
"przestaw zmienną na" najczęściej jest "0".
--
Mirek
Ghost
Guest
Sun Mar 29, 2026 7:46 pm
W dniu 29.03.2026 o 18:47, Mirek pisze:
Quote:
W dniu 29.03.2026 o 16:11, Ghost pisze:
W dniu 29.03.2026 o 13:23, Mirek pisze:
W dniu 29.03.2026 o 12:58, Ghost pisze:
Ale to nie kwestia pamiec ulotna vs nieulotna. Przeciez LLM mogl byc
karmiony danymi z liczba "0"
Ja co innego podejrzewam. Te zmienne OIDP mają z reguły wartość 0 lub
1. Zwykle nikt nie pamięta na jaką wartość przestawić, bo przestawia
się na przeciwną. Model wie że ma być przestawiona, i że większość
zmiennych w różnych przypadkach przestawia się na 0. To może być
50.0001% większość ale jednak.
alerzeco? nie bardzo rozumiem do czego zmierzasz
Wyjaśniłem skąd się wzięło to 0.
Najciekawsze, że tam nigdzie po drodze w tej sieci neuronowej nie będzie
tego wyniku 50,0001%. To może nawet wynikać stąd, że po wyrażeniu
"przestaw zmienną na" najczęściej jest "0".
Watpie, gdyby tak bylo, LLM produkowalby przez wiekszosc czasu belkot.
cezar
Guest
Wed Apr 01, 2026 12:55 pm
On 27/03/2026 14:53, J.F wrote:
Quote:
ChatGPT potrafi wyciągnąc treść SMS z tekstu hex ciągu bajtów.
no nie mówcie mi, że oni go tego "nauczyli".
Musiał ktoś zaprogramować odpowiedni moduł, i on go cwanie używa.
Chociaż ... ludzki mózg ma ponoć 100mld neuronów ... może to się da
zasymulować, i nauczyć ...
J.
Taka ciekawostka z dzisiaj.
ChatGPT zdaje egzamin z metrologii RF na poziomie doktoranckim:
https://www.youtube.com/watch?v=QTm8G2rQYTY
W tamtym roku nie zdawał. W tym już dostaje 100%
io
Guest
Wed Apr 01, 2026 3:23 pm
W dniu 1.04.2026 o 12:55, cezar pisze:
Quote:
On 27/03/2026 14:53, J.F wrote:
ChatGPT potrafi wyciągnąc treść SMS z tekstu hex ciągu bajtów.
no nie mówcie mi, że oni go tego "nauczyli".
Musiał ktoś zaprogramować odpowiedni moduł, i on go cwanie używa.
Chociaż ... ludzki mózg ma ponoć 100mld neuronów ... może to się da
zasymulować, i nauczyć ...
J.
Taka ciekawostka z dzisiaj.
ChatGPT zdaje egzamin z metrologii RF na poziomie doktoranckim:
https://www.youtube.com/watch?v=QTm8G2rQYTY
W tamtym roku nie zdawał. W tym już dostaje 100%
Obserwujemy to na trywialnych przykładach.
ąćęłńóśźż
Guest
Sat Apr 04, 2026 7:45 am
On niczego nie umie, te 100% są ze ściągi.
-----
Quote:
W tamtym roku nie zdawał.
W tym już dostaje 100%
J.F
Guest
Sat Apr 04, 2026 9:11 am
On Sat, 4 Apr 2026 07:51:28 +0200, ąćęłńóśźż wrote:
Quote:
On niczego nie umie, te 100% są ze ściągi.
Czasami go katuję pytaniami, które są cięzkie obliczeniowo.
np "czy liczba 7563424028143 jest pierwsza"
Jest to iloczyn 200000-nej i 200003-ciej liczby pierwszej
(Wolfram prime(200000)*prime(200003) )
odpowiedz chatgpt:
Nie, liczba 7563424028143 nie jest liczbą pierwszą.
Można ją podzielić przez inne liczby oprócz 1 i samej siebie.
Przykład: 7563424028143 jest podzielna przez 3. Można to sprawdzić,
sumując cyfry tej liczby (7 + 5 + 6 + 3 + 4 + 2 + 4 + 0 + 2 + 8 + 1 +
4 + 3 = 57), a ponieważ 57 jest podzielne przez 3, cała liczba również
jest podzielna przez 3.
Odpowiedz wskazuje na "myślenie" czy raczej na bezmyślność?
Pewnie to drugie - będac modelem językowym, coś sobie uroił.
Spytajmy o coś z metrologii
"Jeśli napięcie wynosi 12.3V, a prąd płynący 7.8A, i oba są zmierzone
miernikami klasy 2, to jaki jest błąd pomiaru mocy?"
Czy wyjaśnienie zaczynające się od
"Mierniki klasy 2 mają dokładność 2%. Oznacza to, że wartość pomiaru
może różnić się o 2% od rzeczywistej wartości."
uznajemy za poprawne?
Bo dalej całkiem dobrze policzył.
więc dopowiadam
"to są mierniki wskazówkowe"
Niewiele zmienia to odpowiedz.
Wiec uczę go dalej:
"ale przeciez w miernikach wskazówkowych klasa oznacza błąd jako
procent zakresu miernika"
"Masz absolutnie rację! W przypadku mierników wskazówkowych, klasa
dokładności rzeczywiście oznacza błąd jako procent zakresu miernika, a
nie procent samego pomiaru, jak to ma miejsce w przypadku cyfrowych
mierników. Dziękuję za zwrócenie uwagi na ten szczegół.
Zaktualizujmy obliczenia, uwzględniając to poprawnie.
Założenia:
-Zakres napięcia: Mierzony zakres napięcia wynosi 020V.
-Zakres prądu: Mierzony zakres prądu wynosi 010A.
[...] "
Myśli?
Mamy 2026 rok, w zasadzie można już nie pamiętać, jak działają
mierniki wskazówkowe :-)
Ustny egzamin z metrologii zaliczony na 4, 4.5? (w skali 2-5)
Przy czym wykazał się ... kreatywnością? Czy chęcią do udzielenia
odpowiedzi?
Bo w zasadzie powinien spytac, jakie były zakresy mierników, a nie
zakładać :-)
Quote:
-----
W tamtym roku nie zdawał.
W tym już dostaje 100%
J.
Goto page Previous 1, 2, 3 Next