• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Flygbolag tar inga chanser med vår säkerhet - inte heller artificiell intelligens

    Upphovsman:Shutterstock

    Du skulle tro att det skulle vara farligare att flyga i ett plan än att köra bil. I verkligheten är det mycket säkrare, dels för att flygindustrin är hårt reglerad.

    Flygbolag måste hålla sig till strikta säkerhetsstandarder, testning, Träning, policies och procedurer, revision och tillsyn. Och när saker går fel, vi undersöker och försöker åtgärda problemet för att förbättra säkerheten i framtiden.

    Det är inte bara flygbolag, antingen. Andra branscher där det kan gå väldigt illa, såsom läkemedel och medicinsk utrustning, är också starkt reglerade.

    Artificiell intelligens är en relativt ny bransch, men det växer snabbt och har stor förmåga att göra skada. Liksom luftfart och läkemedel, det behöver regleras.

    AI kan göra stor skada

    Ett brett spektrum av tekniker och applikationer som passar under rubriken "artificiell intelligens" har börjat spela en viktig roll i våra liv och sociala institutioner. Men de kan användas på skadliga sätt, som vi redan börjar se.

    I "robodebt" -affären, till exempel, den australiensiska statens välfärdsmyndighet Centrelink använde datamatchning och automatiserat beslutsfattande för att utfärda (ofta felaktiga) skuldmeddelanden till välfärdsmottagare. Vad mer, bevisbördan var omvänd:individer var tvungna att bevisa att de inte var skyldiga den begärda skulden.

    New South Wales -regeringen har också börjat använda AI för att upptäcka förare med mobiltelefoner. Detta innebär utökad offentlig övervakning via mobiltelefondetekteringskameror som använder AI för att automatiskt upptäcka ett rektangulärt föremål i förarens händer och klassificera det som en telefon.

    Ansiktsigenkänning är en annan AI -applikation under intensiv granskning runt om i världen. Detta beror på dess potential att undergräva de mänskliga rättigheterna:det kan användas för omfattande övervakning och undertryckande av offentliga protester, och programmerad partiskhet kan leda till felaktigheter och rasdiskriminering. Vissa har till och med krävt ett moratorium eller ett direkt förbud eftersom det är så farligt.

    I flera länder, inklusive Australien, AI används för att förutsäga hur sannolikt en person är att begå ett brott. Sådana prediktiva metoder har visat sig påverka inhemska ungdomar oproportionerligt och leda till förtryckande poliser.

    AI som hjälper tågförare tas också i bruk, och i framtiden kan vi förvänta oss att se självkörande bilar och andra autonoma fordon på våra vägar. Liv kommer att bero på denna programvara.

    Det europeiska tillvägagångssättet

    När vi väl har bestämt att AI måste regleras, det finns fortfarande frågan om hur man gör. Myndigheter i Europeiska unionen har nyligen lagt fram en rad förslag på hur man reglerar AI.

    Det första steget, de bråkar, är att bedöma de risker AI medför i olika sektorer som transport, sjukvård, och statliga ansökningar som migration, straffrätt och social trygghet. De tittar också på AI -applikationer som utgör en risk för dödsfall eller skada, eller ha en inverkan på mänskliga rättigheter, till exempel rättigheterna till integritet, jämlikhet, frihet och säkerhet, fri rörlighet och sammankomst, social trygghet och levnadsstandard, och antagandet om oskuld.

    Ju större risk en AI -applikation ansågs utgöra, ju mer reglering det skulle möta. Bestämmelserna skulle omfatta allt från data som används för att träna AI och hur register hålls, hur transparenta skaparna och operatörerna av systemet måste vara, testar för robusthet och noggrannhet, och krav på mänsklig tillsyn. Detta skulle inkludera certifiering och försäkringar om att användningen av AI -system är säker, och leder inte till diskriminerande eller farliga resultat.

    Även om EU:s strategi har starka sidor, även tydligen "lågrisk" AI-applikationer kan göra verklig skada. Till exempel, rekommendationsalgoritmer i sökmotorer är också diskriminerande. EU -förslaget har också kritiserats för att försöka reglera teknik för ansiktsigenkänning snarare än att förbjuda det direkt.

    EU har lett världen över dataskyddsförordningar. Om samma sak händer med AI, these proposals are likely to serve as a model for other countries and apply to anyone doing business with the EU or even EU citizens.

    What's happening in Australia?

    In Australia there are some applicable laws and regulations, but there are numerous gaps, and they are not always enforced. The situation is made more difficult by the lack of human rights protections at the federal level.

    One prominent attempt at drawing up some rules for AI came last year from Data61, the data and digital arm of CSIRO. They developed an AI ethics framework built around eight ethical principles for AI.

    These ethical principles aren't entirely irrelevant (number two is "do no harm, " for example), but they are unenforceable and therefore largely meaningless. Ethics frameworks like this one for AI have been criticized as "ethics washing", and a ploy for industry to avoid hard law and regulation.

    Another attempt is the Human Rights and Technology project of the Australian Human Rights Commission. It aims to protect and promote human rights in the face of new technology.

    We are likely to see some changes following the Australian Competition and Consumer Commission's recent inquiry into digital platforms. And a long overdue review of the Privacy Act 1988 (Cth) is slated for later this year.

    These initiatives will hopefully strengthen Australian protections in the digital age, but there is still much work to be done. Stronger human rights protections would be an important step in this direction, to provide a foundation for regulation.

    Before AI is adopted even more widely, we need to understand its impacts and put protections in place. To realize the potential benefits of AI, we must ensure that it is governed appropriately. Otherwise, we risk paying a heavy price as individuals and as a society.

    Denna artikel publiceras från The Conversation under en Creative Commons -licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com