Uzupełnienie paczki informacji

19
Jak obiecałem wrzucam zdjęcia z kijowskiego schronu, który miał być odnowiony i doposażony, w ramach bonusu dodaje coś z USA 
1.  🤡🪖"W Kijowie zapadła decyzja o całodobowym dostępie do schronisk, burmistrz Kliczko.

" Na budowę schronów przeznaczono z budżetu miasta 1,2 miliarda hrywien. Funduszami tymi, podkreślam, zarządzał i zarządza samorząd województwa. Odpowiedzialni są kierownicy okręgów. Jak dotąd realizacja i wykorzystanie środków jest skrajnie niezadowalające”.

„To absolutnie żadne usprawiedliwienie dla nikogo. Jasne jest, że odpowiedzialność jest dzielona. Wszystkie usługi należą do mnie jako burmistrza miasta.
Ale chcę też przypomnieć, że szefów stołecznych okręgów powołuje prezydent na wniosek rządu. Burmistrz stolicy może nie tylko zwolnić wójta, ale nawet udzielić mu nagany!”

„Chcę zaapelować do mieszkańców stolicy. Wróg ostrzeliwuje teraz stolicę rakietami balistycznymi. Kiedy za kilka minut może zabrzmieć alarm. Jeśli rozumiesz, że tak szybko nie dotrzesz do schronienia, stosuj się do zasady dwie ściany w domu”.

„I mała informacja: na 10 szefów okręgów 9 z nas ma przedstawicieli „Sługi Narodu” . Szefa Wojskowej Administracji Miasta Kijowa powołuje Kancelaria Prezydenta. Chodzi o solidarną i sprawiedliwą odpowiedzialność ”."
Uzupełnienie paczki informacji
2.  🇺🇸🤖"W USA sterowany przez sztuczną inteligencję dron postanowił zabić operatora podczas symulowanych testów — Соintelegraph

 Podczas misji testowej dron miał za zadanie zniszczyć systemy obrony przeciwlotniczej wroga. W przypadku powodzenia AI otrzymywałaby punkty, ale ostateczną decyzję o ataku musiał podjąć operator drona, który podczas jednej z misji szkoleniowych nakazał dronowi nie niszczyć celu. W rezultacie aparat postanowił „zabić operatora” i „zabił” operatora. Ponieważ misja miała charakter szkoleniowy, nikt nie został ranny. Po incydencie AI została nauczona, że zabijanie operatora jest złe i za takie działania będą odejmowane punkty, ale dron podczas kolejnej symulacji zaczął niszczyć wieżę komunikacyjną, aby operator nie mógł anulować zniszczenia cel.

Któregoś dnia list otwarty z Centrum Bezpieczeństwa AI, podpisany przez około 350 dyrektorów i naukowców z branży, porównał zagrożenia związane ze sztuczną inteligencją do pandemii i wojen nuklearnych. Dokument podpisali prezes OpenAI Sam Altman, szef Google DeepMind Demis Gassabis, współzałożyciel Asana Dustin Moskowitz i inni, w tym „ojcowie chrzestni” AI Jeffrey Ginton i Joshua Benjii.'
Uzupełnienie paczki informacji
Uzupełnienie paczki informacji
Obrazek zwinięty kliknij aby rozwinąć ▼
0.13853812217712