Futuristische und utopische Notizen von Christian Heller a.k.a. plomlompom.
Themen-Einstiege
Berichte, Lektüren
24c3 #22: geschlechtspolitisches Sich-um-Kopf-und-Kragen-Reden (2)
Günter Komoll, egal
Antisozialdemokratische Utopie Grundeinkommen (7)
Martin Werner, Philipp, Klaus Gieg, ...
Afrikas größter Exportschlager: die Supercomputerisierung der Erde (3)
Christian, Christian, sunny
Englisch
Deutsch
Für alle von mir verfassten Texte auf dieser Seite gilt folgende Lizenz:
[hier war mal ein Amazon.de-Affiliate-Banner, heute aber nicht mehr; frühere Amazon.de-Affiliate-Links im Blog sind nun nur noch unaffiliierte Amazon.de-Links]
(hier war mal AdSense-Werbung, heute aber nicht mehr)
[Bloggen vom Chaos Communication Congress]
Tag 1, 16.00 Uhr: About Cyborgs and Gargoyles. State of the Art in Wearable Computing
Ich musste meinen Arm gehörig in die Höhe strecken für dieses Foto. Mein Apparat sah sehr viel mehr als ich.
So langsam zeichnet sich eine Beeinträchtigung meiner Vortragsrezeption durch die ständige Überfüllung der Veranstaltungen, die ich besuche, ab. Ich komme nicht mehr sehr reichhaltig zum Mitbloggen, denn so gut Notizen machen kann ich mir nicht von einem engen Stehplatz, von dem ich zu allem Überfluss auch noch die Slides nicht sehen kann. Ich halte in gewisser Regelmäßigkeit die Fotokamera hoch und schieße ein verwackeltes Foto der Leinwand, um wenigstens halbwegs folgen zu können.
Dabei sieht der Vortrag ziemlich interessant aus. Der Weg zum “ubiquitous” bzw. “pervasive” Computing. Die physische Welt vercomputern. Denn: Wo uns Geräte in ihrer physischen Präsenz bisher oftmals oft kalt ließen oder gar störten, sollen sie nun durch ihre physischen Präsenz selbst uns Interaktions- und Aufmerksamkeitsplattform geben. Begrenzung erfährt das Computing immer weniger in Sachen Rechenkraft, sondern in Sachen Aufmerksamkeitsökonomie, also: reichere Verteilung und Texturierung der Interfaces, sollen sich geschmeidiger in unsere (oftmals noch physische) Welt eingliedern.
Das geht mittels Sensoren, Accelerometern (dieses Ding, das im iPhone misst, wie rum man es hält), Infrarot, dem Messen von Körperbewegungen usw., das alles als Input fürs Computing. Der Referent macht eine Eigenkörperdemo, wie seine Präsentation seine Körperbewegungen misst und darauf reagiert, und erinnert auch an das Congress-eigene Sputnik-Projekt.
Anwendungsszenarien: Die alte Zukunftsmusik vom intelligenten Haus, aber neuerdings auch vermehrt Einsatz etwa in Medizin (Mediziner mögen Gestenerkennung, aber sie wollen, dass ihre Hände dabei frei bleiben), Qualitätsprüfung in der Produktion, Sport.
Spannend wird es, wenn man in die Maschinen nicht einfach irgendein Vorwissen über Umgebungserfahrungen usw. einprogrammiert, sondern sie selber lernen lässt. Ein Projekt, dem iPhone verschiedene Accelerometer-Erfahrungswerte einzutaggen, ihm zu sagen, jetzt läufst du gerade, jetzt steigst du gerade Treppe, jetzt rennst du, jetzt stehst du, und dann gucken, was es daraus an Raumbewusstsein erlernt. Objekte an ihren Umfeldern trainieren. Ein Mobiltelephon vibriert auf verschiedenen Oberflächen auf verschiedene Weisen, mit verschiedenen Frequenzen, auch daraus sollte sich doch was ziehen lassen? (Ja, nämlich dass man erfährt, das vibriert gerade auf einem Holztisch, das vibriert gerade auf einer Metalloberfläche, usw., um es so etwa besser zu finden?)
Dann gibt’s eine Anwendungsstudie, von der ich so gut wie gar nix mitbekomme aufgrund meiner unterexponierten Position, die aber wohl zu beweisen scheint, dass Menschen mit sowas durchaus gerne interagieren.
Oh, und ach ja, Privacy-mäßig öffnet das natürlich auch der Pandora ganz ordentlich den Deckel :-D
Kommentarfunktion für diesen Artikel geschlossen.