eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plPrawoGrupypl.soc.prawo › Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
Ilość wypowiedzi w tym wątku: 50

  • 41. Data: 2024-02-27 02:15:23
    Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
    Od: Kviat <k...@n...dla.spamu.pl>

    W dniu 26.02.2024 o 16:29, J.F pisze:
    > On Mon, 26 Feb 2024 11:54:26 +0100, Kviat wrote:

    >>>
    >>> To powienien odpowiedziec "nie wiem".
    >>
    >> Nie powinien. Bo to nie jest sztuczna inteligencja, tylko model językowy
    >> - bardziej lub mniej złożony, ale na pewno nie sztuczna inteligencja.
    >> Już to tutaj tłumaczyłem, ale jak widać nie do wszystkich dotarło.
    >
    > Moze nie czytałem.
    > Model czy nie - duzo inteligencji potrzeba, aby zrozumiec pytanie i z
    > sensem odpowiedziec.

    Okazało się, że nie potrzeba wcale.
    Tam nie ma ani zrozumienia pytania, ani sensu odpowiedzi.
    To tylko subiektywne odczucie człowieka, więc żeby tego człowieka
    "oszukać" wystarczyło pod maską zapakować tylko (aż...) statystykę,
    prawdopodobieństwo itp.

    >> Posługiwanie się pojęciami "wiem" i "nie wiem" w kontekście tych
    >> narzędzi nie ma żadnego sensu. Ani "wie", ani "nie wie".
    >> Nie może odpowiedzieć "wiem" - bo by "skłamał.
    >> Nie może też odpowiedzieć "nie wiem" - bo też by skłamał (bo to by
    >> sugerowało, że wie coś innego, a tylko akurat tego nie).
    >
    > Nie bardzo widzę, jak taka odpowiedź miałaby cos sugerować,
    > ale przeciez cos wie ...

    Nie w takim sensie jak "wie" człowiek.

    W dużym uproszczeniu: jeżeli (statystycznie) często obok słowa "Ziemia"
    pojawia się w tekstach uczących bota inne słowo np. "okrągła", to
    dyskutując z takim botem odniesiesz wrażenie, że on "wie", że Ziemia
    jest okrągła, a nie np. płaska.
    Często też występuje słowo "płaska" (takich bzdur w internecie jest
    zadziwiająco dużo), więc dla takiego bota, to nie kwestia wiedzy, tylko
    statystyki - np. 75% "okrągła" i 25% "płaska".
    Jeśli do tego dołożysz prawdopodobieństwo, to częściej dostaniesz wynik,
    że jest okrągła, ale może się zdarzyć, że będzie cię "przekonywał", że
    jest płaska.
    Z tego nijak nie wynika, że wie, czy jest płaska, czy okrągła.

    To przykład, ale takich rzeczy jest dużo (chipy w szczepionkach,
    kretyńskie teorie spiskowe itp., ale nie tylko: teksty fantasy, s-f,
    poezja z przyciężkawymi metaforami kompletnie niezrozumiałymi dla
    niewyrobionego czytelnika, czy po prostu pozbawionymi sensu bez
    kontekstu całego wiersza, czy utworu, itd.) - stąd wrażenie, że taki bot
    czasem kłamie, albo że zmyśla.
    To poważny problem, który został zauważony już we wczesnych wersjach,
    więc podniósł się raban o fakenewsy i głupoty przekazywane ludziom przez
    boty.
    Ludzie byli (są nadal...) na to nieprzygotowani, nie rozumieją narzędzia
    (czego przykłady są w tym wątku) którego używają, bezpodstawnie (i
    bezwiednie) personifikują go i przypisują mu intencje.

    Obecne AI radzą sobie z tym dużo lepiej (ale nie dzięki własnej
    "wiedzy", lecz głównie dzięki ręcznej-ludzkiej klasyfikacji treści,
    którymi się je karmi).
    Nadal możesz kazać napisać mu coś na temat np. latających słoni, napisze
    rozprawkę, esej, czy cośtam, ale przy okazji mocno podkreśli, że
    latające słonie w rzeczywistości nie istnieją.
    Z tego nijak nie wynika, że taki bot wie, czy latające słonie istnieją,
    czy nie.

    A jak będziesz za bardzo się upierał w sprawie płaskiej Ziemi, to po
    prostu zakończy dyskusję i już. Nie dlatego, że chciał, lecz dlatego, że
    tak go zaprogramowano.

    >> Zapytaj kostkę do gry przed rzuceniem, czy _wie_ ile oczek wypadnie.
    >> Albo zapytaj po rzuceniu, czy _wiedziała_ ile oczek wypadnie.
    >> Rzucisz kostką, to kostka zrobi co powinna i wypadnie ileś tam oczek.
    >> A że spodziewałeś się innego wyniku... to nie znaczy, że wynik był zły,
    >> czy głupi, czy nieprawdziwy, czy bezwartościowy, czy może akurat wypadło
    >> tyle ile się spodziewałeś.
    >
    > No ale pomijając, ze kostka jest "głupia" i nie wie, to przeciez moze
    > odpowiedziec.

    No i odpowie: poturla się i jedna z powierzchni będzie u góry. A jak
    będzie kiepsko wyważona, to częściej będzie wypadać jakiś wynik, a
    rzadziej inny. Nie istnieją idealne kostki.

    Jak z tego ma wynikać, że kostka wie co wypadnie, albo co wypadło?

    > Ja będę rzucał kostką, i ja będę odpowiadal - tak może być?

    Nie rozumiem pytania.
    Będziesz sam siebie pytał i sam sobie odpowiesz?

    Boty AI nie odpowiadają na pytania.
    One generują treści na podstawie wyuczonego modelu. Wpuszczasz tekst na
    wejście, dostajesz jakiś tekst na wyjściu.
    To, czy ten tekst jest wartościowy dla ciebie oceniasz ty (tak jak wynik
    rzutu kostką).
    Rozumienie przez nie kontekstu zapytania jest pozorne, to czysta
    matematyka+ręczna klasyfikacja przez armię taniej siły roboczej
    wrzucającej do niej treści podczas uczenia.
    Np. wrzucasz mu zdjęcie kotka i zaznaczasz "ptaszek" to jest kotek.
    To jest piesek, to jest myszka itd.
    To jest kotek leżący, a to jest kotek stojący...
    W dużym uproszczeniu, bo z tekstami jest podobnie, dlatego ma się
    wrażenie, że "rozumie" kontekst - jak piszesz z nim o zamkach i
    rycerzach, to nie będzie odpowiadał tekstami o zamkach do zamykania
    drzwi - z tego nijak nie wynika, że wie co to jest zamek.
    Z drugiej strony, jak będziesz "rozmawiał" z botem eksperckim od zamków
    od drzwi, to nijak sam z siebie nie wygeneruje tekstu z rycerzami.


    >> Więc jak najbardziej zrobił to co powinien, czyli wypluł jakąś informację.
    >> Ogarnął to, do czego miał dostęp i w/g modelu, który został mu narzucony
    >> ("wyuczony"), przetworzył i wypluł wynik.
    >> Podał zlepek słów/fraz/zdań pozlepianych w/g jakichś tam zasad
    >> prawdopodobieństwa z kombinacją wynikającą ze statystyki i paru innych
    >> rzeczy z zasobu, którym dysponuje.
    >> A nie najbardziej prawidłowy.
    >> Zasób ma duży, model pieruńsko rozbudowany i skomplikowany, więc dlatego
    >> czasem ma się wrażenie, że dostaje się coś wartościowego, a czasem, że
    >> to głupoty.
    >
    > Model ma pierunsko rozbudowany.
    > Tylko nie wiem, czemu "model" a nie "baza wiedzy.

    Bo bazą wiedzy go karmisz podczas nauki. W wyniku tej nauki dostajesz
    model (model sieci neuronowej - w dużym uproszczeniu).

    Przykład:
    Masz bazę wiedzy, 100000 zdjęć różnych kotków i 100000 zdjęć różnych
    piesków.
    Twoim celem jest zbudowanie bota, który po zapodaniu mu przez ciebie
    zdjęcia (kotka, albo psa) odpowie, czy to był kotek, czy pies.

    Wrzucasz mu zdjęcie kotka - zaznaczasz kotek, wrzucasz mu zdjęcie psa -
    zaznaczasz pies itd. 200000 razy. Uczysz go.
    W ten sposób tworzysz model AI.
    I ten model już nie potrzebuje tych 200000 zdjęć kotków i psów żeby
    rozpoznać, czy na zdjęciu (spoza puli uczącej) jest kotek, czy pies.

    Teraz możesz komuś przekazać taki model i on będzie prawidłowo
    rozpoznawał kotki i pieski, pomimo tego, że nie przekazałeś tych 200000
    zdjęć kotków i piesków, czyli bazy wiedzy.

    Podobnie działają np. programy do odczytywania pisma ręcznego. Przecież
    to nie jest tak, że ściągasz taki program razem z pierdyliardem próbek
    odręcznego pisma i on podczas swojego działania za każdym razem
    przeszukuje swoją "bazę wiedzy". Ta baza wiedzy była potrzebna tylko do
    nauki.

    Dlatego zawsze jest mowa o poziomie komplikacji _modelu_, a nie bazie
    wiedzy. Baza wiedzy, to tylko "makulatura". Nie ma nic skomplikowanego w
    zdjęciu kotka.
    Tą samą makulaturą można "nakarmić" różne modele z różnymi rezultatami.

    > Zadaje pytanie
    > "jak najlepiej sprawdzic w Pythonie czy zmienna zawiera liczbę
    > całkowitą?"
    >
    > Dostaję kilka dobrych odpowiedzi, bo pytanie okazuje się nie całkiem
    > jasne, a kontekst szeroki.
    >
    > wiec precyzuję
    > "jak najlepiej sprawdzic w Pythonie czy zmienna typu float zawiera
    > liczbę całkowitą ?"
    >
    > Dostaję 3 dobre odpowiedzi.
    >
    > "która metoda jest najlepsza?"
    >
    > I znów odpisuje z sensem, i chyba dobrze.

    No i?
    Gdzie tu przejaw inteligencji?


    >> To tylko subiektywne wrażenie odbiorcy (tak jak z kostką do gry), a nie
    >> intencjonalne wypisywanie przez "sztuczną inteligencję" głupot i/lub
    >> wartościowych rzeczy. Tak jak kostka do gry nie losuje złośliwie ilości
    >> oczek, których akurat nie obstawiłeś.
    >>
    >> I to również tak, jakby mieć pretensje do "sztucznej inteligencji",
    >> która została zrobiona do generowania kreskówkowych obrazków, że nie
    >> wygenerowała fotorealistycznego zdjęcia pomimo, że została "poproszona"
    >> o fotorealistyczne zdjęcie.
    >> Od narzędzia do generowania kreskówkowych obrazków dostajesz w wyniku
    >> kreskówkowy obrazek i narzekasz, że słabo i do fotorealistycznych zdjęć
    >> to ta sztuczna inteligencja nie dojrzała...
    >
    > To maszyny Trurla miały więcej asertywności :-)
    >
    >> Przerażający jest ten brak zrozumienia w społeczeństwie czym jest i jak
    >> działa ta cała "sztuczna inteligencja".
    >
    > Ale wysyp tych różnych SI jest imponujący ...

    Imponujące jest łączenie tych technologii, a nie sam wysyp.

    Np.
    https://www.komputerswiat.pl/aktualnosci/nauka-i-tec
    hnika/sztuczna-inteligencja-rozwiazala-problem-matem
    atyczny-ale-tworcy-nie-wiedza-dlaczego/vkrbjbp

    Powrotu do zdrowia życzę.
    Piotr





  • 42. Data: 2024-02-27 03:52:33
    Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
    Od: Marcin Debowski <a...@I...zoho.com>

    On 2024-02-26, Robert Wańkowski <r...@w...pl> wrote:
    > W dniu 26.02.2024 o 10:31, J.F pisze:
    >> On Sun, 25 Feb 2024 22:19:51 +0100, _Master_ wrote:
    >>> I to BĘDZIE DOBRE ;-)
    >>
    >> No chyba, ze SI ciebie skaże, i nie będzie dyskusji.
    >>
    >> Albo przegrasz proces o pieniądze, które ci się należą.
    >>
    >> Ale nie martw sie - banda prawników jeszcze długo nie pozwoli :-)
    >
    > Podobnie z pilotami. Lądują ręcznie choć statystycznie samolot zrobi to
    > lepiej/bezpieczniej.

    A potem coś się dupnie co wykracza poza rutynę, którą AP ogarnia i mamy
    gotową katastrofę. Podejrzewam, że gdyby piloci rutynowo
    lądowali/startowali na AP to katastrof byłoby o jakiś rząd wielkości
    wiecej niz obecnie.

    Juz nie pamiętam, która to była konkretnie katastrofa, chyba na Taiwanie
    (TransAsia 235), gdzie m.in. wnioski były własnie takie, ze nie mieli
    praktycznie doświadczenia w startach i lądowaniu, co się walnie
    przyczyniło do nieogarnięcia chaosu, który sami zresztą spowodowali.

    --
    Marcin


  • 43. Data: 2024-02-27 03:56:39
    Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
    Od: Marcin Debowski <a...@I...zoho.com>

    On 2024-02-26, J.F <j...@p...onet.pl> wrote:
    > Moze nie czytałem.
    > Model czy nie - duzo inteligencji potrzeba, aby zrozumiec pytanie i z
    > sensem odpowiedziec.

    Nic nie trzeba. To w końcu "tylko" pewien algorytm pracy na danych.
    Tyle, że danych duzo.

    --
    Marcin


  • 44. Data: 2024-02-27 06:23:16
    Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
    Od: Shrek <...@w...pl>

    W dniu 27.02.2024 o 03:52, Marcin Debowski pisze:

    > Juz nie pamiętam, która to była konkretnie katastrofa, chyba na Taiwanie
    > (TransAsia 235), gdzie m.in. wnioski były własnie takie, ze nie mieli
    > praktycznie doświadczenia w startach i lądowaniu, co się walnie
    > przyczyniło do nieogarnięcia chaosu, który sami zresztą spowodowali.

    W dubaju 4 doświadczonch pilotów niemal nie poderwało maszyny przed
    końcem pasa... bo im flightdirectory nie kazały. W końcu któryś szarpnął
    sterami bo pas się kończył... ale dalej się nie wznosili bo "komputer
    nie kazał" i zrobili rundkę 777 na wysokości dachów nad dzielnicą z
    prędkością 400+. Childern of magenta;)

    --
    Shrek

    Czy wiesz, że "***** ***" czytane od tyłu daje "??? ?????"?
    PS - i konfederację!


  • 45. Data: 2024-02-29 01:53:31
    Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
    Od: Marcin Debowski <a...@I...zoho.com>

    On 2024-02-27, Shrek <...@w...pl> wrote:
    > W dniu 27.02.2024 o 03:52, Marcin Debowski pisze:
    >
    >> Juz nie pamiętam, która to była konkretnie katastrofa, chyba na Taiwanie
    >> (TransAsia 235), gdzie m.in. wnioski były własnie takie, ze nie mieli
    >> praktycznie doświadczenia w startach i lądowaniu, co się walnie
    >> przyczyniło do nieogarnięcia chaosu, który sami zresztą spowodowali.
    >
    > W dubaju 4 doświadczonch pilotów niemal nie poderwało maszyny przed
    > końcem pasa... bo im flightdirectory nie kazały. W końcu któryś szarpnął
    > sterami bo pas się kończył... ale dalej się nie wznosili bo "komputer
    > nie kazał" i zrobili rundkę 777 na wysokości dachów nad dzielnicą z
    > prędkością 400+. Childern of magenta;)

    A co ich skłoniło do 400+ bo to chyba dość duzo jak na tuż po starcie?

    --
    Marcin


  • 46. Data: 2024-02-29 06:39:49
    Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
    Od: Shrek <...@w...pl>

    W dniu 29.02.2024 o 01:53, Marcin Debowski pisze:

    > A co ich skłoniło do 400+ bo to chyba dość duzo jak na tuż po starcie?

    Nie wiem - pewnie byli na TOGA a się nie wznosilil to szybko nabierali
    prędkości. "samo się zrobiło".

    --
    Shrek

    Czy wiesz, że "***** ***" czytane od tyłu daje "??? ?????"?
    PS - i konfederację!


  • 47. Data: 2024-02-29 10:31:00
    Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
    Od: "J.F" <j...@p...onet.pl>

    On Tue, 27 Feb 2024 06:23:16 +0100, Shrek wrote:
    > W dniu 27.02.2024 o 03:52, Marcin Debowski pisze:
    >> Juz nie pamiętam, która to była konkretnie katastrofa, chyba na Taiwanie
    >> (TransAsia 235), gdzie m.in. wnioski były własnie takie, ze nie mieli
    >> praktycznie doświadczenia w startach i lądowaniu, co się walnie
    >> przyczyniło do nieogarnięcia chaosu, który sami zresztą spowodowali.
    >
    > W dubaju 4 doświadczonch pilotów niemal nie poderwało maszyny przed
    > końcem pasa... bo im flightdirectory nie kazały. W końcu któryś szarpnął
    > sterami bo pas się kończył... ale dalej się nie wznosili bo "komputer
    > nie kazał" i zrobili rundkę 777 na wysokości dachów nad dzielnicą z
    > prędkością 400+. Childern of magenta;)

    Po to jest ten FD, żeby piloci mniej błedów popelniali.

    No ale jak widać - ostatnie słowo nalezy do pilota. Na razie :-)

    A w zasadzie to juz nie, bo Airbus potrafi "naprawic błędy", a i
    Benek okazuje sie silniejszy :-)

    J.


  • 48. Data: 2024-02-29 10:34:32
    Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
    Od: "J.F" <j...@p...onet.pl>

    On Mon, 26 Feb 2024 20:55:35 +0100, Shrek wrote:
    > W dniu 26.02.2024 o 20:38, J.F pisze:
    >> Ale od czasu do czasu AP budzi pilotów, bo stwierdza, ze nie jest w
    >> stanie dalej pilotować.
    >
    > _Wydaje_ mi się, że akurat na obcięcie silnika to autopilot powinien
    > szybciej i lepiej zareagować niż pilot białkowy - co nie zmienia postaci
    > rzeczy że białkowego należy obudzić i zapytać co w związku z tym dalej.

    Trudno mi powiedziec jak dokładnie to zrobili, bo w zasadzie masz
    rację - w sytuacji krytycznej nalezy budzic pilota ... ale ciągle AP
    powinien pilotowac samolot "w dobrej wierze", minimalizując
    szkodliwosć.
    Przynajmniej dopóki pilot za drążek nie chwyci.

    I pewnie jakos tak to jest zrobione.

    J.


  • 49. Data: 2024-02-29 10:40:04
    Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
    Od: "J.F" <j...@p...onet.pl>

    On Tue, 27 Feb 2024 02:52:33 GMT, Marcin Debowski wrote:
    > On 2024-02-26, Robert Wańkowski <r...@w...pl> wrote:
    >> W dniu 26.02.2024 o 10:31, J.F pisze:
    >>> On Sun, 25 Feb 2024 22:19:51 +0100, _Master_ wrote:
    >>>> I to BĘDZIE DOBRE ;-)
    >>>
    >>> No chyba, ze SI ciebie skaże, i nie będzie dyskusji.
    >>>
    >>> Albo przegrasz proces o pieniądze, które ci się należą.
    >>>
    >>> Ale nie martw sie - banda prawników jeszcze długo nie pozwoli :-)
    >>
    >> Podobnie z pilotami. Lądują ręcznie choć statystycznie samolot zrobi to
    >> lepiej/bezpieczniej.
    >
    > A potem coś się dupnie co wykracza poza rutynę, którą AP ogarnia i mamy
    > gotową katastrofę. Podejrzewam, że gdyby piloci rutynowo
    > lądowali/startowali na AP to katastrof byłoby o jakiś rząd wielkości
    > wiecej niz obecnie.
    >
    > Juz nie pamiętam, która to była konkretnie katastrofa, chyba na Taiwanie
    > (TransAsia 235), gdzie m.in. wnioski były własnie takie, ze nie mieli
    > praktycznie doświadczenia w startach i lądowaniu, co się walnie
    > przyczyniło do nieogarnięcia chaosu, który sami zresztą spowodowali.

    No i w efekcie cholera wie co lepsze.

    A w dodatku sporo operacji jest obecnie co najmniej wspomaganych przez
    rózne automaty ...

    Dodaj jeszcze rózne wersje i podwersje, kokpit niby ten sam, a
    pilotuje się nieco róźnie. Pilot np miesiąc latał na 737 krótkim,
    a dzis go posadzili do długiego ...


    J.



  • 50. Data: 2024-03-01 04:19:51
    Temat: Re: Nadchodzą nareszcie czasy kiedy ZJEBY prawnicze zastąpi sztuczna inteligencja
    Od: Marcin Debowski <a...@I...zoho.com>

    On 2024-02-29, J.F <j...@p...onet.pl> wrote:
    > On Tue, 27 Feb 2024 02:52:33 GMT, Marcin Debowski wrote:
    >> On 2024-02-26, Robert Wańkowski <r...@w...pl> wrote:
    >>> W dniu 26.02.2024 o 10:31, J.F pisze:
    >>>> On Sun, 25 Feb 2024 22:19:51 +0100, _Master_ wrote:
    >>>>> I to BĘDZIE DOBRE ;-)
    >>>>
    >>>> No chyba, ze SI ciebie skaże, i nie będzie dyskusji.
    >>>>
    >>>> Albo przegrasz proces o pieniądze, które ci się należą.
    >>>>
    >>>> Ale nie martw sie - banda prawników jeszcze długo nie pozwoli :-)
    >>>
    >>> Podobnie z pilotami. Lądują ręcznie choć statystycznie samolot zrobi to
    >>> lepiej/bezpieczniej.
    >>
    >> A potem coś się dupnie co wykracza poza rutynę, którą AP ogarnia i mamy
    >> gotową katastrofę. Podejrzewam, że gdyby piloci rutynowo
    >> lądowali/startowali na AP to katastrof byłoby o jakiś rząd wielkości
    >> wiecej niz obecnie.
    >>
    >> Juz nie pamiętam, która to była konkretnie katastrofa, chyba na Taiwanie
    >> (TransAsia 235), gdzie m.in. wnioski były własnie takie, ze nie mieli
    >> praktycznie doświadczenia w startach i lądowaniu, co się walnie
    >> przyczyniło do nieogarnięcia chaosu, który sami zresztą spowodowali.
    >
    > No i w efekcie cholera wie co lepsze.
    >
    > A w dodatku sporo operacji jest obecnie co najmniej wspomaganych przez
    > rózne automaty ...
    >
    > Dodaj jeszcze rózne wersje i podwersje, kokpit niby ten sam, a
    > pilotuje się nieco róźnie. Pilot np miesiąc latał na 737 krótkim,
    > a dzis go posadzili do długiego ...

    Ale tak chyba nie powinno być? Tak jak rozumiem, to musi być jakiś
    dłuższy trening. Inna rzecz, że te różnice potrafią być faktycznie
    fundamentalne. Jedna z najbardziej dla mnie szokujących prawie katastrof
    wynikła z tego, że SAAB jako chyba jeden z nielicznych, w którymś ze
    swoich modeli nie odłączał AP po wykryciu nacisku na wolant. I tak sobie
    walczyli z AP nurkując w kierunku ziemi. Bodajże 7 czy 11s przed
    uderzeniem nastapił błąd w oprogramowaniu, co akurat wyłączało AP. I
    tylko dlatego sie nierozwalili.

    --
    Marcin

strony : 1 ... 4 . [ 5 ]


Szukaj w grupach

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1