Kredit:MIT, Jimmy Day/Creative Commons, Attribution 4.0 International
OK, vi förstår. Artificiell intelligens experter är på ett snabbt klipp från år till år, månad till månad, visa upp vad deras forskning kan lova. Men kan det vara så att vi har nått det stadiet i interaktion mellan människa och dator, där du kan komma på en fråga —— utan att säga ett ord — och maskinen kommer att svara med svaret?
Hur mycket kostar allt detta? Vad är vädret i Denver?
Project AlterEgo indikerar att vi har nått ett så spännande no-talk-stadium.
"AlterEgo är en icke-invasiv, bärbar, perifera neurala gränssnitt som tillåter människor att konversera på naturligt språk med maskiner, assistenter för artificiell intelligens, tjänster, och andra människor utan någon röst – utan att öppna munnen, och utan externt observerbara rörelser - helt enkelt genom att artikulera ord internt."
Användarens feedback sker via ljud, via benledning. Användaren kan sända och ta emot informationsströmmar till och från datorenheten.
Hur gör du det? Hur skickar man ord om man inte talar högt? Detta är genom intern vokalisering, neuromuskulära signaler från tungan och baksidan av gommen översatta till datorkommandon.
Ok, du samtalar tyst med din maskin, men det är inte en brunchakt i Vegas. Det här är ditt andra jag. Det är mer som om du slutar prata med dig själv. "AlterEgo strävar efter att kombinera människor och datorer - så att datorer, Internet, och AI skulle väva in mänsklig personlighet som ett inre "andrajag" och förstärka mänsklig kognition och förmågor, " enligt projektsidan.
Det är inte att läsa dina tankar som ett resultat av att du bara tänker. Detta är tyst tal.
"Tyst tal är ett medvetet försök att säga ett ord, kännetecknas av subtila rörelser av inre talorgan utan att faktiskt uttrycka det. Processen resulterar i signaler från din hjärna till dina muskler som tas upp som neuromuskulära signaler och bearbetas av vår enhet, " sa projektsidan.
Tekniken beskrivs delvis som genom benledningsljud. Användarens bärbara är en benledningshörlur. Signaler sänds genom en "dekal, sa Kvarts , bärs längs användarens hals och käklinje, och svaren matas genom ett öronstycke.
Vem ligger bakom detta projekt? De som var på en TED-konferens nyligen fick reda på det; han är MIT Media Labs Arnav Kapur, en intelligensökningsforskare.
Anne Quito rapporterade för Kvarts och noterade en tidigare prototyp förra året. "Även om 2018 års prototyp av AlterEgo fick bäraren att se ut som om han hade en huvudskada, " Kapur sa att de är fokuserade på att förfina det bärbara till den grad att de blir omärkliga. "Faktiskt, designen han visade på TED var nästan omöjlig att upptäcka bortsett från tråden som kom ut ur Erics öra, sa Quito.
När kan vi se den här enheten som en produkt? Inte snart.
"Detta är ett universitetsbaserat forskningsprojekt. Vi fortsätter att vidareutveckla systemet med fokus på förbättringar som att minska antalet elektroder som krävs, utforma mer socialt acceptabla formfaktorer, förbättra de neurala nätverken som känner igen det tysta talet, samt att arbeta med att minska den utbildning och anpassning som krävs, och sist men inte minst, designa en heltäckande användarupplevelse och applikationer, ", förklarade projektet. "Alla förhoppningar om kommersialisering är förhastade."
Den där, dock, hindrar inte teamet från att presentera verkliga applikationer. Som Snabbt företag kommenterade, implikationerna att detta headset kan läsa interna talvibrationer är enorma. Utöver att tyst fråga hur vädret är i en annan stad. Eller hur mycket matvarorna har kostat hittills.
En sådan förmånstagare av AlterEgo kan vara en person som har förlorat förmågan att tala på grund av ALS, halscancer eller stroke. Individen med talsvårigheter kunde kommunicera i realtid.
I den större bilden, MIT-teamet gör sitt för att se intressanta områden inom teknik, kalla dem "kognitiv förbättring, " eller "intelligensökning." Om ingenjörer lägger så mycket tid på att göra våra skärmar smarta, vi då? Det är Kapurs fråga. "Istället för att göra den lådan smartare, hur förbättrar du människor så att de är mer kreativa och sammankopplade?"
Pattie Maes arbetar med Kapur i detta projekt, en professor, som driver Media Labs forskningsgrupp Fluid Interfaces, och Eric Wadkins, lead för maskininlärning. Han gick med i gruppen Fluid Interfaces för att arbeta med att skapa ett kontinuerligt subvokalt taligenkänningssystem för projektet.
© 2019 Science X Network