Anschwellende Floskeln in der Pressearbeit

In Bilanzpressekonferenzen, Broschüren, Pressemitteilungen und Vorstandserklärungen wird zu häufig mit Leerformeln gearbeitet. „Wettbewerbstool mit Fokussierung der Komponenten der Implementierungsbreite“, meldet ein Unternehmen der Informationstechnik. Bei „variable Sequentierungsstrukturen und deren hardwareunterstützte Realisierung“ legen sich selbst Fachleute die Karten. Harmlos klingt da noch der tägliche Wortschwall: Man müsse sich neu aufstellen, umstrukturieren, aufs Kerngeschäft fokussieren, Synergien nutzen, effizient und effektiv an seinem Alleinstellungsmerkmal arbeiten. Diese Erklärungen sind leider kein Alleinstellungsmerkmal. Mit Formulierungen wie „der weltweit führende Anbieter“ (ein Klassiker in fast jeder Pressemitteilung) oder „mit unserer neuen Applikation wollen wir uns auf neue Kundensegmente fokussieren“ bewirkt man in den Redaktionen nur ein müdes Lächeln. Eine Journalistenumfrage des Kölner Marktforschungsunternehmens Smart-Research im Auftrag der PR-Agentur Storymaker http://www.storymaker.de unter 900 Journalisten von Wirtschafts-, Fach- und Publikumsmedien bestätigt die wachsende Aversion gegen die anschwellenden Floskeln bei Unternehmen der Telekommunikation und Informationstechnik.

Fast jeder zweite Befragte bemängelt, dass es der Presse- und Öffentlichkeitsarbeit selten gelänge, wirklich spannende Informationen zu vermitteln. 42 Prozent kritisieren eine zunehmende Betriebsblindheit, da es immer nur um Produkte der Unternehmen gehe. 37 Prozent der Journalisten klagen über uninteressante Pressetexte mit zu viel Marketing-Blabla und Fachchinesisch gespickt mit unverständlichen technischen Details und Anglizismen. Knapp ein Drittel moniert, dass zu langsam auf Anfragen reagiert werde und die Pressearbeit zu passiv sei.

„Die Reden und Kommentare von Wirtschaftsführern, Geschäftsberichte und Pressemitteilungen stehen allzu häufig mit der deutschen Sprache auf Kriegsfuß. Die Folge ist, dass man wirtschaftliche Zusammenhänge der Öffentlichkeit schon deshalb nicht erklären kann, weil es an der Sprachkompetenz mangelt, das heißt, an der Fähigkeit, Sachverhalte unterschiedlichen Schwierigkeitsgrades in schlichten Worten auszudrücken“, so der FAZ-Autor Erhard Glogowski. Statt ständig zu kommunizieren, wie innovativ doch das neue Produkt sei, sollten Firmen lieber so konkret wie möglich erklären, worin die Innovation besteht. Bei IT-Unternehmen wimmelt es von Bekundungen wie „Kundenorientierung“, „kompetente Teams“, „innovative und maßgeschneiderte Lösungen“, oder „anwenderorientierte Applikationen“: Semantik-Müll werde in Redaktionen mit Nichtbeachtung bestraft.

Erste iPhone-Entwicklerkonferenz in Deutschland – Tagung in München stellt neue Konzepte für Apps-Programmierung vor

Die neuen Konzepte für die Programmierung von Applikationen für iPhone und iPod touch stehen im Mittelpunkt der iPhone developer conference am 09. und 10. Dezember in München. Dabei handelt es sich um die erste Entwicklerkonferenz speziell für das iPhone in Deutschland. In 22 Vorträgen werden erfolgreiche Anwendungen vorgestellt. Es gibt eine ausführliche Einführung in die Entwicklung von Webapplikationen und nativer Anwendungen für das iPhone mit dem SDK. Am 09. Dezember schildert Werner Jainek die Erfolgsgeschichte seines Aufgabenverwaltungstools „Things“ von der Idee bis zur Präsentation im App Store. Über neue, bahnbrechende Möglichkeiten für das iPhone im Lehreinsatz an der Hochschule berichtet Prof. Dr. André Bresges von der Universität Köln. Der 09. Dezember richtet sich explizit an den Software-Entwickler: In 12 Vorträgen erfährt der Teilnehmer alles Wichtige zur Webapplikationsentwicklung und Browseroptimierung für die Entwicklung von nativen Anwendungen auf dem iPhone. Thematisiert wird darüber hinaus die Entwicklung im Team und die Einbindung des iPhone im Unternehmensnetzwerk. Die Referenten sind alle aus der Praxis und entwickeln selber für den App Store oder sind erfahrene Autoren in ihren Themenbereichen. Mehr Informationen findet man unter: http://www.iphonedevcon.de/referenten.php

 

Virtuelles Fräulein vom Amt – Sprachgesteuerte Handys als Tipping Point des Internets

Die Sprachsteuerung des iPhones mit „Google Mobile App“ http://googlemobile.blogspot.com wird von Web 2.0-Pionier Tim O’Reilly als „Tipping Point“ gewertet: Der Begriff  bezeichnet jenen Moment, in dem etwas Einzigartiges zum Normalzustand wird und einen qualitativen Umschlagspunkt markiert. „Es ist es an der Zeit, Telefone als erstklassige Geräte zu sehen, um auf das Internet zugreifen zu können, und nicht nur als Möglichkeit, Inhalte und Anwendungen umzuwidmen, die ursprünglich dazu gedacht waren, mit einer Tastatur und einem Bildschirm gelesen zu werden“, schreibt O’Reilly in seinem Blog http://radar.oreilly.com. Mit der Sprachsteuerungsfunktion werde ein neuer Weg für Computerdienstleistungen beschritten. „Apple begeisterte uns mit dem iPhone-Touchscreen, aber die Einbeziehung des Beschleunigungsmessers war fast ebenso wichtig; und jetzt hat Google uns gezeigt, wie dieser als Hauptkomponente einer Benutzeroberflächenanwendung eingesetzt werden kann. Legen Sie das Telefon ans Ohr und die Anwendung fängt an mitzuhören; eher durch eine natürliche Geste als durch ein künstliches Klopfen oder Klicken ausgelöst. Ja, der Beschleunigungsmesser wurde bereits in Spielen wie tilt oder the iPint verwendet, aber Google hat das Ganze noch etwas weiter getrieben durch die Integration des Telefon-Hauptsensors: das Mikrofon“, so O’Reilly. Nach seiner Ansicht liegt hier die Zukunft von Mobiltelefonen: eine Benutzeroberfläche zu entwickeln, die alle bisherigen Generationen über Bord wirft. Zeigen und klicken war ein Durchbruch für Computer, aber eine Sackgasse für das Design von Benutzeroberflächen.  

Mittlerweile haben das iPhone und ähnliche Smartphones eine Vielzahl an Sensoren: Mikrofon, Kamera, Touchscreen, Beschleunigungsmesser, und Standortortung. Neue Anwendungen und Kombinationen werden zu weiteren Überraschungen führen. „Künftige Geräte werden eine immer größere Anzahl an Sinnen haben, um darauf zu achten, was wir wollen. Könnte ein Telefon die Bewegung erkennen, die wir machen, wenn wir eine Kamera vor uns hochhalten, damit wir die Einstellungen festlegen können? Könnten wir mit dem Telefon reden um Kameraeinstellungen zu verändern? Könnte ein Telefon automatisch die Bewegung eines Autos erkennen und auf Sprachwahl umstellen? Und dann gibt es natürlich noch alle weitere Interaktionen mit anderen Geräten die möglich sind, wenn wir das Telefon als Steuerteil betrachten – ähnlich der Wii-Konsole von Nintendo“, erklärt O’Reilly. 

Auch in der ITK-Branche erwartet man Impulse über die Sprachsteuerung: „Computer werden heute immer noch primär über eine Tastatur bedient, die aus der Schreibmaschine entstanden ist, so als ob jeder Tastendruck einen mechanischen Hebel in Bewegung setzt. Selbst der Zeilenvorschub und Wagenrücklauf alias Carriage return ist uns erhalten geblieben, obwohl damit schon lange kein Papier mehr transportiert wird. Telefone haben zwar die Revolution von der Wählscheibe hin zur – in der Regel – 3×4 Tastatur gemacht, standardisiert nach ITU E.161, das erfolgte aber bereits in den 70er Jahren. Selbst moderne Handys und Smartphones halten sich noch an den Tastenwahlblock, entweder in mechanischer Ausführung oder als Icon-Darstellung auf einem Touchscreen“, weiß Andreas Latzel, Deutschland-Chef des ITK-Spezialisten Aastra http://www.aastra.de, der viel Wert auf die Benutzerfreundlichkeit seiner Systeme legt. Die Technikentwicklung sei zwar rasant schnell und ein gutes User-Interface inzwischen intelligent sowie kontextbezogen – im Kern aber immer noch traditionell. Vorhersehbar sei, dass der Tastaturblock an seine Grenzen stoße – spätestens mit der breiten Einführung der SIP-Telefonie und der SIP-Teilnehmeradressen.

„Anders als bei professionellen Tischgeräten kommt die Ausstattung von Handys mit alphanumerischen Tastaturen zwar auch vor, ist aber in der Regel wegen der beschränkten Abmessungen nicht befriedigend. Da bietet sich der Weg zum Sprachinterface an: der Ansage von Adressen oder Einträgen des Telefonbuchs in normaler Sprachform. Sinnvoll ist das beim Autofahren oder anderen Tätigkeiten, die beide Hände verlangen. Ein gutes Beispiel im professionellen Umfeld ist die Pflege in Altenheimen mit der Aastra-Branchenlösung OPAS. Hier kann beispielsweise mittels Telefon und Sprache die erbrachte Leistung dokumentiert werden – das Pflegepersonal gewinnt viel mehr Zeit für die Bewohner“, sagt Latzel. Übrigens schlage die Technik mit der Sprachwahl den Bogen zurück zu den Anfängen des Telefons vor der Einführung des Selbstwählsystems: damals aktivierte man den Telefonapparat durch Erzeugung einer Rufspannung über den Kurbelinduktor und sagte dem „Fräulein vom Amt“, mit welchem Teilnehmer man sprechen möchte. „Im modernen Telefon mit Sprachinteraktion wird das Fräulein von einer Software ersetzt“, so Latzel. In Kombination mit den Datenwolken von Google ergeben sich nach Prognosen von O’Reilly ungeahnte Möglichkeiten. „Sensorenreiche Geräte mit Anwendungen, die diese Sensoren nutzen, um mit Datenwolkendiensten zu interagieren und sie zu füttern. Der Standortsensor weiß, wo man sich befindet; das Mikrofon erkennt den Klang der Stimme, so dass es persönliche Daten in der Datenwolke frei setzt; die Kamera nimmt Objekte und Personen auf und sendet ein Bild zu einer abgelegenen Anwendung, die diese erkennt und die entsprechenden Informationen abruft“, führt O’Reilly aus. Viele Durchbrüche würden bereits vor der Tür stehen. Die Stimmen- und Gestenerkennung in der Google Mobile-Anwendung seien nur der Anfang. Der gleichen Meinung ist der Berliner Sprachdialogexperte Lupo Pape: „Es ist erst einmal eine Sprach- oder Diktiererkennung, die auf einer Suchmaschine und demnächst sogar auf weiteren Handyfunktionen aufsetzt. Sprachdialogsysteme werden es erst, wenn ein Wissen über die Domäne und Dialogintelligenz hinzukommen. Das ist das, was wir mit dem Personal Assistant umsetzen. Dazu müssen die Wissensgebiete semantisch aufbereitet und Dialogstrategien hinterlegt werden. Die wichtigsten Use-Cases gilt es zu modellieren“, resümiert SemanticEdge-Geschäftsführer Pape.

 

Siehe auch:

http://de.youtube.com/watch?v=y3z7Tw1K17A&eurl=http://googlemobile.blogspot.com/

http://googleblog.blogspot.com/2008/11/now-you-can-speak-to-google-mobile-app.html

 

Schlagworte verdichten den Nebel: Kritischer Diskurs zur Cloud Computing-Strategie von Google

In den kommenden Jahren werden Computerprogrammierung, Computerarchivierung und Netzwerk-Fähigkeiten nach Einschätzung von Google eine exponentielle Entwicklung  erfahren. „Neue Computerprogramme, von denen eine noch größere Anzahl netzbasiert sein wird als bisher, kommen auf den Markt, um aus diesen neuen Möglichkeiten Kapital zu schlagen“, schreiben  die Google-Forscher Wie sich bereits heute abzeichnet, werden die Menschen mit dem „Cloud Computing” synchron agieren und eine Fülle an technischen Geräten zeitgleich nutzen: PCs, Mobiltelefone, PDAs und Computerspiele. Die steigende Anzahl und Vielfalt der Interaktionen werde das Cloud Computing nicht nur mit mehr Informationen ausstatten, sondern auch wertvolle Daten und Fakten über die Denk- und Verhaltensweise von Menschen und Systemen liefern. „Auf diese Weise erhalten Computersysteme die fantastische Möglichkeit, aus dem Kollektivverhalten von Milliarden Menschen Informationen abzuleiten und Erkenntnisse zu gewinnen“, meinen die beiden Google-Manager.

Computer werden intelligenter und könnten Beziehungen zwischen Objekten, Nuancen, Absichten, Bedeutungen und anderen tief gehenden konzeptionellen Informationen herstellen. Für Google würden sich neue Möglichkeiten ergeben, die Suchfunktionen weiter zu verbessern.  „Wir werden in der Lage sein, unsere Systeme so ausreifen zu lassen, dass sie nicht nur die Charaktere unterscheiden und erkennen oder beispielsweise Namen in ein YouTube-Video oder Buch einspielen können. Sie werden zudem in der Lage sein, Handlung und Symbolik zu erkennen. Das potenzielle Ergebnis wäre eine Art konzeptionelle Suche, nach dem Motto: ‚Suche mir eine Geschichte mit einer spannenden Verfolgungsjagd-Szene und einem Happy End’. Da es den Systemen somit ermöglicht wird, Informationen aus individuellen Interaktionen herauszufiltern, werden sie in der Lage sein, Ergebnisse zugeschnitten auf die Situationsbedürfnisse der Einzelperson zu liefern“, führen Spector und Och aus. Darüber hinaus werden auch Übersetzungs- und Multi-Modal-Systeme technisch realisierbar werden. Wenn Menschen in einer bestimmten Sprache kommunizieren, könnten sie auf diese Weise automatisch und nahtlos mit Menschen und Informationen in anderen Sprachen interagieren. Die Auswirkungen solcher Systeme werden weit über das Google-System hinausgehen. „Forscher medizinischer und allgemein-wissenschaftlicher Bereiche erhalten so Zugang zu riesigen Datenmengen und können dadurch Analysen und Algorithmen zur Erkennung bestimmter Muster durchführen, die es bisher in dieser Ausprägung noch nicht gegeben hat“, prognostizieren Spector und Och. So könnte beispielsweise das Large Synoptic Survey Telescope (LSST) mehr als 15 Terabyte an neuen Daten pro Tag generieren.

Bisher wurden Systeme, die komplizierte Probleme und Fragen lösen und beantworten konnten, traditionsgemäß mit dem Etikett „intelligent” versehen. Verglichen mit der ersten Generation der „Künstlichen Intelligenz” habe der neu eingeschlagene Weg  besseres zu bieten: „Zunächst einmal wird dieses System in einer gigantischen Dimension umgesetzt, mit einer bis dato beispiellosen computerisierten Kraft und Energie durch Millionen von Computern. Bei der Entwicklung werden darüber hinaus Parameter berücksichtigt, um konkrete und nützliche Aufgaben zu lösen und zu verbessern. Hierzu gehören die Informationssuche, die Beantwortung von Fragen, die Umsetzung eines gesprochenen Dialogs, die Übersetzung von Texten und Reden, die Umwandlung von Images und Videos“, erläutern Spector und Och. 

Die wolkigen Computervisionen von Google stoßen auf Widerstand: „Die Argumentation für Cloud Computing unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Das hatte keinen Erfolg“, kontert Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra http://www.aastra-detewe.de in Berlin. Die Cloud Computing-Prediger würden verkennen, dass es komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer gibt. „Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen. Ob Linux, OpenOffice oder Mozilla, es gibt viele gute Gründe für Open Source“, sagt Latzel. Ein weiteres Gegenargument sei die zunehmende Mobilität. „Es gibt keine unbegrenzte Bandbreite. Selbst in Deutschland, wo UMTS seit vier Jahren kommerziell verfügbar ist, lässt sich selbst mit Bandbreiten nach R99 nicht flächendeckend und in allen Gebäuden arbeiten, von schnelleren Bandbreiten nach HSDPA und LTE ganz zu schweigen. Auch WLAN-Hotspots sind nur begrenzt verfügbar. Somit muss jede Anwendung für die Geschäftswelt auch darauf ausgelegt sein, offline arbeiten zu können. Dazu kommt die mangelnde Zahlungsbereitschaft der Anwender, für sehr hohe mobile Bandbreiten zu bezahlen, so dass eher Bandbreiten in Frage kommen, die lediglich Anwendungsdaten übertragen, aber nicht eine zentralisierte Rechenleistung unterstützen“, führt Latzel weiter aus.

Als Skeptiker hat sich nach einem Bericht von Silicon http://www.silicon.de auch der Free-Software-Guru Richard Stallman offenbart. Für ihn ist Cloud Computing schlicht eine „Dummheit“. Zumal unter diesem Begriff nichts Neues zusammengefasst werde. Doch Stallman zieht nicht nur gegen alten Wein in neuen Schläuchen zu Felde: Er sieht reale Gefahren für die Anwender. Es könnten neue Abhängigkeiten entstehen und die Kosten explodieren. „Das Interessante am Cloud Computing ist, dass wir es so re-definiert haben, dass es vor allem Dinge enthält, die wir ohnehin schon tun“, so Stallman gegenüber dem „Guardian“. Der Begriff sei vor allem durch die Industrie geprägt worden. In erster Linie beschreibe es jedoch die Tatsache, dass die Anwender die Hoheit über ihre Computer an die Hersteller und Anbieter abgeben. Und diese Hersteller heißen Google, Microsoft und Amazon.

Die Technologien von Google bieten für den privaten und professionellen Sektor einen erheblichen Nutzen. Und man ist vielleicht geneigt, die Kapazitäten als Cloud zu bezeichnen. Man kennt ja das Gesetz von Metcalfe: Die Nützlichkeit eines Netzwerkes ist proportional zum Quadrat der Anzahl der Benutzer. Seitdem wissen wir, wie sich die bessere Vernetzung auf den Nutzen auswirkt. Cloud Computing ist nicht neu, und vielleicht eher als Fortführung des Gridgedankens vor zehn  Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert“, erläutert der Bizerba-Director Global Informaton Andreas Rebetzky. Sie leide  immer unter dem schwächsten Glied in der Kette. „Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten“, fordert der IT-Experte Rebetzky.

 

Studie: Mittelstand verplempert Milliarden durch TK-Anlagen – Telefon-Steuerung über Web-Browser könnte Abhilfe schaffen

Laut einer aktuellen Untersuchung der Deutschen Telefon Standard AG http://www.dtst.de in Mainz sind rund 75 Prozent der deutschen Mittelständler mit ihren Telekommunikationsanlagen unzufrieden. Die Anwender schätzen den Schaden, vor allem durch zu komplizierte und nicht ausgelastete Anlagen, auf bis zu 5 Milliarden Euro jährlich. Nach der Telekom-Studie nutzen 72 Prozent der Unternehmen nur magere ein bis fünf Prozent der Möglichkeiten ihrer Telekommunikationsanlagen auch aus. „Meist handelt es sich hierbei nur um Basismerkmale wie Rufweiterleitung“, berichtet Informationweek http://www.informationweek.de. Komplexere Funktionen kommen lediglich acht Prozent der Befragten zum Einsatz – magere drei Prozent zählen sich zu den „Power-Usern“. 

Die Hauptursache für die überdimensionierte Technik liege bei den Herstellern, die den Mittelstand stiefmütterlich behandelt. Die Telefonanlagen seien nicht bedürfnisgerecht konzipiert, und kompliziert zu bedienen. „Von den Anwendern in den Unternehmen werden vor allem das umständliche Suchen nach Telefonnummern, die erneute Eingabe von Rufnummern nach Verwählen sowie das wenig intuitive Einrichten von Rufumleitung und Telefonkonferenzen bei vielen Anlagen kritisiert“, so Informationweek. Die Hälfte der Firmen schätzt, dass dadurch pro Mitarbeiter und Arbeitstag etwa 5 Minuten verloren gehen. Weitere 23 Prozent beziffern den Zeitverlust mit 10 Minuten, rund 22 Prozent der Befragten sogar mit mehr als 10 Minuten. Nur fünf Prozent der Unternehmen halten hingegen die Bedienung ihrer TK-Anlagen für so einfach, dass die Mitarbeiter damit keine nennenswerte Zeit verlieren. „Unter dem Strich ergeben diese sinnlosen Verzögerungen bei 60 Prozent der Mittelständler einen theoretischen finanziellen Schaden von 5 Milliarden Euro im Jahr durch nicht genutzte Arbeitszeit und Kapazitäten“, schreibt Informationweek. 

Einen Ausweg aus dem Dilemma könnten Voice-over-IP-Systeme bieten. Beim „Standard-Telefon-System“, einer VoIP-Anlage auf Basis von IP-Centrex, stelle etwa der Nutzer die Telefonfunktionen selbst über den Web-Browser ein. „Somit kann sich jeder Mitarbeiter die Funktionen zurechtlegen, die er benötigt, und somit effizienter mit seinem Telefon arbeiten. Als Endgeräte kommen Telefone von Anbietern wie Aastra, Polycom und Siemens zum Einsatz“, so Informationweek. „Auch Anwender mit wenig Affinitiät zur Technik können die webbasierte Nutzerverwaltung unserer TK-Systeme spielend einfach bedienen“, bestätigt Andreas Latzel, Deutschland-Chef von Aastra http://www.aastra.de. Nicht nur die IP-Centrex-Systeme, sondern alle TK-Systeme seines Unternehmens stellen eine webbasierte Nutzerverwaltung zur Verfügung. „Über die Einstellung der Benutzerdaten hinaus kann der Anwender unterstützende Services für die Telefonie über denselben Browser nutzen“, sagt Latzel im Gespräch mit NeueNachricht http://www.ne-na.de. Es sei keine Installation auf dem Arbeitsplatz nötig. Es werde ausschließlich ein Browser verwendet, der den Anwender mit seinem Kommunikationsportal verbindet und über die Administration seiner Userdaten hinaus weitere Anwendungen wie CTI oder Voicemail. „Einfachheit, Flexibilität und ein exaktes Anpassen des TK-Systems an die Bedürfnisse des Kunden sind wichtig, um auf dem TK-Markt bestehen zu können“, erklärt Latzel.