• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Varför AI inte kan lösa allt

    Kredit:artificiell intelligens-503593_1920/flickr

    Hysterin om framtiden för artificiell intelligens (AI) finns överallt. Det verkar inte råda någon brist på sensationella nyheter om hur AI kan bota sjukdomar, påskynda mänsklig innovation och förbättra mänsklig kreativitet. Bara att titta på medias rubriker, du kanske tror att vi redan lever i en framtid där AI har infiltrerat alla aspekter av samhället.

    Även om det är obestridligt att AI har öppnat upp en mängd lovande möjligheter, det har också lett till uppkomsten av ett tankesätt som bäst kan beskrivas som "AI-lösningism". Detta är filosofin som med tillräckligt med data, maskininlärningsalgoritmer kan lösa mänsklighetens alla problem.

    Men det finns ett stort problem med denna idé. Istället för att stödja AI-framsteg, det äventyrar faktiskt värdet av maskinintelligens genom att bortse från viktiga AI-säkerhetsprinciper och ställa orealistiska förväntningar på vad AI verkligen kan göra för mänskligheten.

    AI-lösningism

    På bara några år, AI-lösningsismen har tagit sig från teknikevangelisternas mun i Silicon Valley till medvetandet hos regeringstjänstemän och beslutsfattare runt om i världen. Pendeln har svängt från den dystopiska föreställningen att AI kommer att förstöra mänskligheten till den utopiska tron ​​att vår algoritmiska räddare är här.

    Vi ser nu regeringar lova stöd till nationella AI-initiativ och tävla i en teknisk och retorisk kapprustning för att dominera den växande maskininlärningssektorn. Till exempel, den brittiska regeringen har lovat att investera 300 miljoner pund i AI-forskning för att positionera sig som ledande inom området. Förälskad i den transformativa potentialen hos AI, Frankrikes president Emmanuel Macron åtog sig att göra Frankrike till ett globalt AI-nav. Under tiden, den kinesiska regeringen ökar sin AI -förmåga med en nationell plan för att skapa en kinesisk AI -industri till ett värde av 150 miljarder US -dollar år 2030. AI -lösningsförmåga ökar och den är här för att stanna.

    Neurala nätverk – lättare sagt än gjort

    Medan många politiska manifest presenterar de transformativa effekterna av den hotande "AI-revolutionen", de tenderar att underskatta komplexiteten kring att distribuera avancerade maskininlärningssystem i den verkliga världen.

    En av de mest lovande varianterna av AI-teknik är neurala nätverk. Denna form av maskininlärning är löst modellerad efter den mänskliga hjärnans neuronala struktur men i mycket mindre skala. Många AI-baserade produkter använder neurala nätverk för att utläsa mönster och regler från stora datamängder. Men vad många politiker inte förstår är att att bara lägga till ett neuralt nätverk till ett problem inte automatiskt innebär att du hittar en lösning. Liknande, Att lägga till ett neuralt nätverk till en demokrati betyder inte att det omedelbart blir mer inkluderande, rättvis eller personlig.

    Utmanar databyråkratin

    AI-system behöver mycket data för att fungera, men den offentliga sektorn har vanligtvis inte lämplig datainfrastruktur för att stödja avancerat maskininlärning. Det mesta av data förblir lagrade i offlinearkiv. De få digitaliserade datakällor som finns tenderar att begravas i byråkratin. Oftare än sällan, data sprids över olika myndighetsdepartement som var och en kräver speciella tillstånd för att få åtkomst. Framför allt, den offentliga sektorn saknar vanligtvis den mänskliga talangen med rätt tekniska kapacitet för att fullt ut skörda fördelarna med maskinintelligens.

    Av dessa anledningar, sensationsförmågan över AI har lockat många kritiker. Stuart Russell, en professor i datavetenskap vid Berkeley, har länge förespråkat ett mer realistiskt tillvägagångssätt som fokuserar på enkla vardagliga tillämpningar av AI istället för det hypotetiska övertagandet av superintelligenta robotar. Liknande, MIT:s professor i robotik, Rodney Brooks, skriver att "nästan alla innovationer inom robotik och AI tar långt, långt, längre för att vara riktigt brett utplacerad än vad människor på fältet och utanför fältet föreställer sig".

    En av de många svårigheterna med att distribuera maskininlärningssystem är att AI är extremt mottagligt för motståndsattacker. Detta innebär att en skadlig AI kan rikta in sig på en annan AI för att tvinga den att göra felaktiga förutsägelser eller att bete sig på ett visst sätt. Många forskare har varnat för utrullning av AI utan lämpliga säkerhetsstandarder och försvarsmekanismer. Fortfarande, AI-säkerhet är fortfarande ett ämne som ofta förbises.

    Maskininlärning är inte magi

    Om vi ​​ska skörda fördelarna och minimera de potentiella skadorna med AI, vi måste börja fundera på hur maskininlärning på ett meningsfullt sätt kan tillämpas på specifika regeringsområden, näringslivet och samhället. Det betyder att vi måste ha en diskussion om AI-etik och den misstro som många människor har mot maskininlärning.

    Viktigast, vi måste vara medvetna om AI:s begränsningar och var människor fortfarande måste ta ledningen. Istället för att måla upp en orealistisk bild av kraften i AI, det är viktigt att ta ett steg tillbaka och separera den faktiska tekniska förmågan hos AI från magi.

    Under en lång tid, Facebook trodde att problem som spridning av desinformation och hatretorik kunde identifieras och stoppas algoritmiskt. Men under den senaste tidens påtryckningar från lagstiftare, företaget lovade snabbt att ersätta sina algoritmer med en armé på över 10, 000 mänskliga granskare.

    Läkarkåren har också insett att AI inte kan anses vara en lösning för alla problem. IBM Watson for Oncology-programmet var en del av AI som var tänkt att hjälpa läkare att behandla cancer. Även om den utvecklades för att ge de bästa rekommendationerna, mänskliga experter hade svårt att lita på maskinen. Som ett resultat, AI-programmet övergavs på de flesta sjukhus där det testades.

    Liknande problem uppstod inom den juridiska domänen när algoritmer användes i domstolar i USA för att döma brottslingar. En algoritm beräknade riskbedömningspoängen och gav domare råd om straffmätningen. Systemet visade sig förstärka strukturell rasdiskriminering och övergavs senare.

    Dessa exempel visar att det inte finns någon AI-lösning för allt. Att använda AI helt enkelt för AI:s skull kanske inte alltid är produktivt eller användbart. Inte alla problem åtgärdas bäst genom att tillämpa maskinintelligens på det. Detta är den avgörande lärdomen för alla som strävar efter att öka investeringarna i nationella AI-program:alla lösningar har en kostnad och inte allt som kan automatiseras borde vara det.

    Denna artikel publicerades ursprungligen på The Conversation. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com