Dags att tänka

Vi som pluggar medieteknik här på KTH lär oss ju tidigt att betona att det är ett e där i mitten; medi-”konstpaus”-e-”konstpaus”-teknik. Folk kan ju tro att vi bara håller på med det som i folkmun kallas media d.v.s. TV, radio och tryck! Skandal! Men än så länge är den medierade kommunikation som vi håller på med främst begränsad till de sinnena syn och hörsel, precis som TV, radio och tryck, så liknelsen är kanske inte helt fel. Vilka andra sinnen och medierade kommunikationssätt skulle medieteknikutbildningen kunna behandla?

emotive_epocVissa av oss kommer kanske att arbeta med känseln när vi designar apparater eller taktila gränssnitt. Rörelsekänsliga sensorer som accelerometrar, gyroskop och laseravståndsmätare har blivit vardagsmat i apparater som Wii, Iphone och Xbox Kinect. Ett område som där utveckling pågår är sensorer för så kallad ”mind control” eller tankestyrning; sensorer som känner av hjärnaktivitet, känslor eller koncentrerade tankar. Tekniken utvecklades först för neurofysiologiska tillämpningar som ett sätt att undersöka hjärnan. Vad jag förstått är tekniken fortfarande ganska primitiv men i framtiden kanske även tankestyrning kommer att vara vardagsmat.

Jag tror hjärnan är ganska tacksam att jobba mot eftersom den är så flexibel. Om sensorerna kan detektera en viss, slumpvis tanke och man ser till att någonting händer då kommer hjärnan med lite övning att koppla ihop dem. Så fungerar exempelvis spelet Mindflex från Mattel, där spelaren får en boll att sväva genom att tänka på ett visst sätt.

Bilden ovan visar Emotive EPOC neuroheadset från Emotive Systems som uppges läsa av de fyra känslorna glädje, ledsamhet, ilska och rädsla. Den medföljande mjukvaran kan spela ett Flickr-bildspel, taggad bilderna med känslan du får när du ser den och visa bilder som gör dig glad extra länge. Tänk vilken häftig tillämpning av en pryl för enbart kostar 300 dollar!

Nämen allvarlig; om tekniken utvecklas öppnar sig framtidsscenarier som inte ens täckts av SciFi-filmer. Snacka om att aldrig kunna koppla av och tänka fritt om du riskerar att beställa en pizza, byta kanal på TV:n och skicka information till Google Analytics. Eller tänk er dagen då mobiltelefonerna förutom röst- och videosamtal erbjuder alternativet ”Make mindcall”. Telepati, anyone?

Källor: Design Buzz, NyTeknik

Annonser

Medielabbet presenterar The Interrogation Chamber – en binaural ljudpjäs

Lördagen den 5 mars gav vi oss ner i R1 med ett låtsashuvud, en dator med specialljudkort och en gigantisk säck rekvisita. Förutom att äta Cheez ballz, dra en tjugo meter lång elkabel ner genom reaktorgropen och sjunga sånger från ökända barnprogram så hann vi faktiskt spela in en 3D-ljudpjäs.

Nu kan du (med hörlurar!) lyssna på resultatet på Soundcloud eller Youtube!

Först kan vi ju varna att den är ganska våldsam och läskig om man lätt blir skrämd av ljud. Dessutom är själva handlingen inte alls av B-films-karaktär utan har självklart ett stort psykologiskt djup!  Tja, just det kanske inte riktigt är sant men fokus med pjäsen ligger på ljudeffekterna. Den binaurala ljudinspelningen funkar så att ljudet fångas upp av två mikrofoner som är fastsatta varsitt öra på ett fejkhuvud. När man lyssnar på inspelningen i stereohörlurar ska man få samma ljudintryck som om man hade suttit där vi spelade in.

Hörseln bestämmer ett ljuds riktning med hjälp av skillnaden i ankomsttid och ljudstyrka mellan våra öron samt att frekvensgången ändras pga. örats form. Med hjälp av fejkhuvudet ska ljudet ändras på alla dem sätten men binaural ljudinspelning går inte att göra perfekt eftersom varje huvud och varje par öron har olika form. Vi medieteknologer lär oss mer om binauralt ljud och riktningshörsel i kursen Ljud som informationsbärare.

Den här pjäsen gjordes av Anton Warnhag, David Ringqvist, Erik Sillén, Norbert von Niman & Poya Tavakolian. Originalmanus av Anton Warnhag.

Om scrollning – Hur vi navigerar grafiskt innehåll

I datorer finns det finns många delar som vanligen bygger upp användargränssnitten; knappar, textinmatningsfält och kryssrutor bland många andra. Det finns även olika typer av innehåll; textmassor, bilder och någon enstaka video ska få plats på olika ytor. Som vi alla vet är ju skärmytan begränsad och innehållsytan kan vara mycket större. För att få plats uppfanns scrollning. Scrollning tar vi ju numera så självklart men hur en ska se ut är absolut inte naturgivet.

Scrollning är alltså den mekanism som används för att visa olika delar av en sammanhängande yta på användarens ”kommando” när hela ytan inte kan visas samtidigt. Ordet att scrolla kommer från engelskans scroll, som betyder bokrulle. När de gamla romarna höll sina bokrullar i papyrus läste de bara från en viss yta av bekväm storlek och rullade sedan vidare för att läsa från en annan del av rullen. I de moderna datorernas början bestod användargränssnittet bara av text. När man tillslut skrivit så mycket att det inte fick plats på skärmen flyttades hela texten upp så att det alltid fanns plats att skriva text i nederdelen av terminalen. Om man ville se vad som hade stått tidigare fick man scrolla upp oftast med ett tryck på uppiltangenten. För att ta sig ner igen tryckte man på nerpiltangenten. Det här sättet att implementera scrollning har levt kvar och när man började använda grafiska element och mus så tillkom även alternativet att flytta innehållet uppåt genom att dra en scrollist uppåt. För att undvika den fällan att tro att det här är det ända sättet att scrolla så måste vi förstå vad den här sortens scrollning betyder.

När vi drar en scrollist uppåt ser vi innehåll som finns längre upp på ytan. Vi förflyttar oss alltså. En bra analogi till den riktiga världen är att om vi vill en sten som ligger längre norrut så går vi längre norrut. Scrollisten bestämmer betraktarens position. Det här fungerar bra då vi har ett scrollhjul, ett par rediga scrolltangenter/-knappar eller en mus som ta tag i och flytta scrollisten med fin precision. När Nokia släppte sitt första touch screen OS för högupplösta skärmar år 2008 använde man just den här klassiska typen av scrollning men det togs emot dåligt av konsumenter.

På mobiler var scrollisten för liten för att bekvämt greppa med tummen. Dessutom var inte analogin ”att förflytta betraktaren” lika befäst utan en del tyckte att det kändes konstigt att t.ex. ikonerna i menyn åkte uppåt när tummen fördes neråt. Iphone populariserade istället kinetisk scrollning i sina mobiler och för de flesta känns det helt rätt för fingerstyrda gränssnitt. Nokia insåg sitt misstag och uppdaterade sina mobiler med kinetisk scrollning.

I kinetisk scrollning rör sig inte ”betraktaren” utan det är själva ytan som rör sig. Genom att greppa tag i ytan med ett finger på en touch screen och dra följer ytan med. Om fingret dras uppåt åker innehållet uppåt. Eftersom betraktaren alltid är stilla så försvinner den metaforen . Personen som tittar på skärmen blir då den enda betraktaren och är inte längre en betraktare som tittar på innehållet genom en annan betraktares ögon. Scrollningen blir lättare att förstå eftersom vi slipper ett lager som måste förstås.

Kinetisk scrollning är förstås inte alltid bättre utan med vanlig mus blir det smidigare med scrollist eftersom det kräver mindre muspekarförflyttning. Olika former av scrollning är kul att tänka på. Här har jag bara beskrivit två vanliga analogier för hur ”betraktaren” och ”innehållet” rör sig i relation till varandra med kanske kommer du på nya, smidiga sätt att se olika delar av en yta. Vilka möjligheter ger 3D-skämar eller holografi? Kanske passar old-school-sättet, att faktiskt gå till en annan del av en stor skärm, bäst för vissa tillämpningar. På vilkets sätt styrs förflyttningen? Med en cirkulär, rullande rörelse? Genom att luta något? Med hjälp av eye-tracking? När nya tekniker kommer måste vi för varje gång tänka om vilken scrollmetod som är mest naturlig, smidig och effektiv. Ytterst handlar det ju om att navigera vad som för oss är en virtuell verklighet.