UK Poprawia Bezpieczeństwo AI, Podpisuje Partnerstwo z Singapurem w Celu Rozwoju Rynku Zaufanego AI
Śpieszysz się? Oto najważniejsze informacje!
- Rynek ubezpieczeń AI w Wielkiej Brytanii może wzrosnąć sześciokrotnie do 2035 roku.
- Rozwój ma na celu wygenerowanie 6,5 miliarda funtów wzrostu gospodarczego.
- Uruchomiono nową platformę do sprawdzania AI, mającą na celu wspieranie odpowiedzialnego korzystania z AI.
Rząd Wielkiej Brytanii ogłosił wczoraj nowe środki mające na celu wspieranie bezpiecznego i odpowiedzialnego korzystania z AI, mające na celu odblokowanie wzrostu gospodarczego o wartości 6,5 miliarda funtów do 2035 roku. Brytyjski sektor zapewnienia AI – który skupia się na zapewnieniu, że systemy AI są sprawiedliwe, transparentne i bezpieczne – ma się rozszerzyć sześciokrotnie w ciągu następnej dekady.
Taki wzrost jest postrzegany jako kluczowy element szerszej strategii rządu, mającej na celu włączenie AI do usług publicznych i zwiększenie produktywności gospodarczej, jednocześnie utrzymanie publicznego zaufania do tych technologii.
Peter Kyle, Sekretarz Stanu ds. Nauki, Innowacji i Technologii, podkreślił, że zaufanie publiczne jest niezbędne, aby w pełni wykorzystać potencjał AI do poprawy usług i produktywności. Zaznaczył, że te kroki mają na celu ustanowienie Wielkiej Brytanii jako lidera w dziedzinie bezpieczeństwa AI.
Aby pomóc w tej ekspansji, Departament ds. Nauki, Innowacji i Technologii (DSIT) oraz Brytyjski Instytut Bezpieczeństwa AI wprowadzili nową platformę zapewniającą AI, zaprojektowaną, aby pomóc brytyjskim firmom zarządzać ryzykiem związanym z korzystaniem z AI.
Platforma skupi zasoby do oceny uprzedzeń w danych, przeprowadzania ewaluacji wpływu oraz monitorowania wydajności AI. Małe i średnie przedsiębiorstwa (MŚP) będą miały także dostęp do narzędzia do samodzielnej oceny, które pozwoli na wdrażanie odpowiedzialnych praktyk związanych z AI w ich organizacjach.
Wielka Brytania zwiększa również swoje międzynarodowe wysiłki w zakresie bezpieczeństwa AI, podpisując partnerstwo z Singapurem.
Memorandum o Współpracy, podpisany przez Sekretarza Kyle’a i Ministra ds. Cyfrowego Rozwoju Singapuru, Josephine Teo, ma na celu promowanie wspólnych badań i ustalanie wspólnych standardów dla bezpieczeństwa AI.
To porozumienie jest kontynuacją dyskusji prowadzonych podczas zeszłorocznego Szczytu Bezpieczeństwa AI i jest zgodne z celami Międzynarodowej Sieci Instytutów Bezpieczeństwa AI (AISI), globalnej inicjatywy koordynującej działania na rzecz bezpieczeństwa AI.
Josephine Teo podkreśliła, że oba kraje są zobowiązane do promowania AI na rzecz dobra publicznego, dbając jednocześnie o to, aby było bezpieczne.
„Podpisanie tego Memorandum Współpracy z ważnym partnerem, jakim jest Wielka Brytania, opiera się na istniejących obszarach wspólnego zainteresowania i rozszerza je o nowe możliwości w dziedzinie AI,” powiedziała Teo.
Hyoun Park, CEO firmy Amalgam Insights – specjalizującej się w odpowiedzialnych finansowo decyzjach IT – zauważa, że mimo iż platforma jest reklamowana jako narzędzie do budowania zaufania do AI, jej głównym celem jest dostarczenie przedsiębiorstwom frameworku zgodnego z rządem do oceny AI, informuje CIO.
Park wyraził obawy co do obecnych możliwości platformy. „Platforma jest nadal dość prymitywna, z planami na niezbędne narzędzie, które jeszcze nie zostało w pełni opracowane” – powiedział, jak donosi CIO.
„Ta ocena opiera się na reakcjach ludzi, a nie na bezpośrednim zintegrowaniu z samym AI, a skala używana przez narzędzie oceny jest niejasna, oferując jedynie binarne opcje tak/nie lub odpowiedzi, które są trudne do skwantyfikowania” – dodał.
Park zwrócił również uwagę, że oceny uprzedzeń mogą być szczególnie trudne. „Każde AI ma swoje uprzedzenia, a przekonanie, że można je wyeliminować, jest zarówno mitem, jak i potencjalnie niebezpieczne” – zauważył w rozmowie z CIO.
Dla mniejszych firm, nowe wymogi zgodności, takie jak oceny ryzyka i audyty danych, mogą stanowić dodatkowe obciążenia, potencjalnie rozciągając ograniczone zasoby – mówi CIO.
Zostaw komentarz
Anuluj odpowiedź