Livestream made easy – Bonner #Sommerinterview jetzt live

Was ist nur mit den Fachmedien los? @vbanholzer im Bonner #Sommerinterview

Warum werden Fachmedien immer schlechter? Bezahlte Gastbeiträge, verkaufte Cover-Storys, hineindrücken von schlecht geschriebenen Pressemitteilungen, keine Blattmacher-Qualitäten. So etwas können auch Algorithmen übernehmen.

Was sich ändern muss und wie der Status quo zu bewerten ist, schildert Professor Volker Banholzer von der TH Nürnberg im Bonner Sommerinterview:

Die von Banholzer benannten Positivbeispiele:

Factory.

Computer & Automation.

Welche Fachmedien überzeugen Euch?

Siehe auch die weiteren Folgen mit Banholzer auf CIO-Kurator:

Wenn Medien nur Informationen anschubsen, werden sie von Algorithmen ersetzt

Gestaltungsdiskurs statt Silicon Valley-Phrasen – Empfehlungen für die Innovationskommunikation

Das komplette Sommerinterview:

Das nächste Sommerinterview:

Man hört, sieht und streamt sich – am Donnerstag in München 🙂

Zur Person: Professor Volker Banholzer leitet den Studiengang Technikjournalismus/Technik-PR an der TH Nürnberg und forscht zu Innovationskommunikation und Gestaltungsdiskurs Industrie 4.0

#Somminterview @VBanholzer Warum Innovationskommunikation von Unternehmen UND Medien besser werden muss

Knapp zwei Stunden hat das Sommerinterview mit Professor Volker Banholzer von TH Nürnberg gedauert – es wurde nie langweilig.

Schaut selbst:

Man hört, sieht und streamt sich.

Siehe auch:

Gescheiterte Technologie: Elektronische Gesundheitskarte offenbar vor dem Aus

Auch so darf Innovationskommunikation nicht laufen: Über die digital-transformatorischen Angstmacher #CIODebatte

Für all jene, die den Niedergang des Verbrennungsmotors klein reden #Autokartell

Die Diesel-Schönredner zitieren ja gerne die so genannte Schweden-Studie, um die Elektromobilität in Frage zu stellen. Hier eine kleine Replik aus der FutureHubs Diskursreihe:

Hier die Langfassung:

Man hört, sieht und streamt.

Siehe auch:

Eine differenzierte Sicht auf das Thema kommt von Bernd Rubel – Umweltsau Tesla? 17 Tonnen CO2 bei der Produktion der Akkus? Es ist komplizierter…

Pressekonferenz als Livestreaming-Format – Endlich bewegt sich was #Airbus #Continental

2013/14 schrieb ich mir gemeinsam mit Hannes Schleeh für unser Hanser-Fachbuch die Finger wund, um auf die Livestreaming-Einsatzgebiete für die Kommunikation aufmerksam zumachen. So erwähnten wir die Aktivitäten des australischen Tourismusverbandes. Statt eine klassische Pressekonferenz zu organisieren, diskutierte die Organisation live mit Bloggern über den Google-Dienst Hangout on Air. Wann lohnt sich schon die Einladung zu einer Pressekonferenz und welcher Journalist ist bereit, diese Veranstaltung zu besuchen? In den Redaktionen wird Personal abgebaut, Reisebudgets werden gestrichen und auch das Nachrichtenangebot von Unternehmen, Vereinen Verbänden und sonstigen Organisationen ist selten so prickelnd, um mit einer Präsenzveranstaltung zu punkten.

Bei einer virtuellen Fachrunde sieht das schon anders aus. Man spart Reiseaufwand, verschwendet nicht den ganzen Tag für eine Bahn- oder Autofahrt und kommt direkter mit Experten ins Gespräch. Keene Communications setzte für seinen Tourismus-Kunden aus Australien ausschließlich auf Blogger, um die Positionen des neuen Ministers für Tourismus in einer Talkrunde zu erörtern. Sehr löblich. Das Ereignis wurde also zu 100 Prozent digital über die Bühne gezogen. Da das Thema Australien-Tourismus international relevant ist, wurden Travel-Blogger aus unterschiedlichen Ländern in die Runde eingeladen. Auch das ist ja mit einem Livestreaming kein Problem.

Am 11. März 2013 wurde die Diskussion live ausgestrahlt. Insgesamt waren 33 Blogger aus UK, USA, Norwegen, Schweden und Irland mit von der Partie. Im Hangout waren neun Blogger. 24 Blogger beteiligten sich aktiv über Twitter, Google Chat und Youtube. Über den Hashtag #NTLive gab es 151 Erwähnungen. Die Reichweite im Social Web lag nach Agenturangaben bei rund 365.000 Nutzern. Intensiv griffen die Blogger die Gesprächsrunde in eigenen Blogs und Podcast-Beiträgen auf. Eine Netzwerk-Wirkung, die mit stationären Pressekonferenzen nur schwer zu erzielen ist.

In den vergangenen vier Jahren passierte dann wenig. Jetzt scheint die Zeit gekommen zu sein für eine größere Experimentierlust mit Livestreaming-Formaten. Zwei Beispiele beleuchtet das prmagazin in der Juli-Ausgabe: Airbus und Continental.

Die Skepsis war groß, als Airbus ankündigte, die Pressekonferenz zum Geschäftsjahr 2016 nicht in einem Hotel, sondern im Internet abzuhalten. Das Gefühl für die Stimmung fehle online doch völlig, unkten viele der ins Web eingeladenen Journalisten vorab. Außerdem könne man via Video¬-Livestream kein einziges Wort am Rande sprechen. Überhaupt gehe der Draht zum Vorstand verloren, wenn man sich nicht vis¬à¬vis gegenübersitze und das Gespräch am Buffet entfalle. Die Möglichkeit, übers Netz Fragen an die Konzernführung zu richten, könne den persönlichen Kontakt nicht ersetzen.

„Wir haben diese Bedenken ernst genommen und zugesagt, dass wir den direkten Zugang zum Vorstand über andere Präsenzveranstaltungen aufrechterhalten. Die hat es inzwischen auch gegeben“, sagt Airbus-Kommunikationschef Rainer Ohler gegenüber dem prmagazin.

Dann zog der Konzern die Sache durch. Nicht nur die Journalisten zeigten sich laut Airbus im Anschluss zufrieden mit der neuen Form der PK, die ihnen wider Erwarten wesentliche Aussagen sowie zufriedenstellende Antworten auf ihre Fragen geliefert habe. Netter Nebeneffekt zur größeren Reichweite: Die Aufwendungen für die Pressekonferenz konnten um 40 Prozent gesenkt werden.

Der Dax-Konzern Continental wollte mit der Web-Lösung insbesondere Lokalredaktionen wieder zur Berichterstattung ermuntern, in deren Verbreitungsgebieten zwar Werke des Konzerns angesiedelt sind, die aber aufgrund des Kostendrucks in den Verlagen keinen Vertreter zu einer nationalen PK schicken konnten.

„Wie bei Airbus war die Skepsis vor allem nationaler Wirtschaftsjournalisten groß, weil sie den persönlichen Kontakt zum Unternehmen zu verlieren fürchteten. Auch bei Continental half das Angebot alternativer Präsenztermine mit dem Vorstand“, schreibt das prmagazin.

Bei allem Lob seitens der Medien gab es auch Kritik: Manchen Journalisten war der Webcast zu inszeniert, andere empfanden ihn als zu dicht an redaktionellen Talk-Formaten und zu wenig als Informationsveranstaltung. Beim zweiten Mal glich Continental den Ablauf deshalb wieder eher an den einer üblichen Pressekonferenz an und blendete die Chat-Fragen der Journalisten für alle sichtbar ein.

„Der allgemeine Wunsch war, dass eine Pressekonferenz keine Show, sondern ruhig noch in gewisser Weise formell sein soll“, so Vincent Charles, Head of Media Relations bei Continental.

Habt Ihr weitere Beispiele?

#FutureHubs Exzellente Diskurse über die Zukunft #D2030

Ein großes Dankeschön an alle, die bei den FutureHubs mitgemacht haben.

Wie unschuldig sind Algorithmen? #D2030 #FutureHubs @FuturICT

Sind Algorithmen unschuldig und neutral, fragen sich Anna-Verena Nosthoff und Felix Maschewski in einem Gastbeitrag für die NZZ und zitieren Mark Zuckerberg, der bei der Debatte über die Verbreitung von Fake News erklärte, es sei schlicht „verrückt“ anzunehmen, seine Firma Facebook habe die US-Wahl beeinflusst, sie stelle nur eine „neutrale Plattform“ dar:

„Auch der CEO der britischen Datenfirma Cambridge Analytica (CA), Alexander Nix, betont die Vorurteilslosigkeit der Technik – zuletzt in seinem Vortrag ‚From Mad Men to Math Men'“, schreiben die Autoren.

Erwähnt wird die These der Mathematikerin Cathy O’Neil: Algorithmen seien „in Code eingebettete Meinungen“. Sie repräsentierten die Werte ihrer Programmierer, operierten per se nicht neutral, würden daher häufig Vorurteile reproduzieren – schliesslich werden die ‚Problemlöser‘ selbst zum Problem.

Ähnlich sieht es der KI-Experte Stefan Holtel.

„Nicht die Algorithmen werden in der KI zu vielen Problemen führen, sondern die Vorurteile, die in den Daten stecken.“

Also Vorurteile, die wir alle in die Daten stecken.

Wenn auf dieser Basis die KI-Systeme ihre unermüdliche Arbeit aufnehmen und Entscheidungen vorbereiten oder sogar selbst treffen, kommt ziemlicher Mist dabei heraus. Kunden, die keinen Kredit mehr bekommen, Versicherte, die Prämienerhöhungen hinnehmen müssen oder gar Netzaktivisten, die als potenzielle Störenfriede der Gesellschaft aussortiert werden. Fast alle Daten, die von Black Box-Maschinen verarbeitet werden, sind von Menschen annotiert worden.

„Wir reichern vermeintlich objektive Daten mit unseren Weltmodellen an. Das wird von keinem Algorithmus hinterfragt“, so Holtel.

Konsequenz: Es fällt uns immer schwerer, die Richtigkeit von Datenberechnungen zu erkennen. Das Ganze ist sogar ein paradiesisches Feld für Trickser, Agitatoren, Autokraten und Machtgierige, sich hinter den Ergebnissen der KI-Maschine zu verstecken und die schmutzigen Entscheidungen auf die Algorithmen zu schieben. Etwa beim Scoring aller Bürgerinnen und Bürger in China. Die Führung der Kommunistischen Partei in Peking installiert „korrekte“ Maschinen als Hausmeister für politische Hygiene. Sozusagen eine Beseelung von toten Apparaten: KI-Maschinen sind wie wir, nur perfekter und unfehlbarer. Der manipulierende Maschinist bleibt dabei unerkannt. Die Drecksarbeit übernehmen Algorithmen – vergleichbar mit der unsauberen Arbeit von Consulting-Firmen, die als Alibi für den Rausschmiss von Mitarbeitern in Unternehmen engagiert werden.

„Wir müssen unser Konzept von Vertrauen in Maschinen überdenken und neu bewerten. Das ist keine technische Frage, sondern eine techniksoziologische und gesellschaftliche, die keine objektive Antwort haben wird, sondern in einem normativen Diskurs entwickelt werden muss“, fordert Holtel.

Sonst entsteht so eine Art Maschinen-Paternalismus. Vergleichbar mit der Einführung der Tabellen-Kalkulation.

„Wie haben uns den Ergebnissen ausgeliefert, die von Excel und Co. ausgespuckt werden. Dabei gibt es eine Vielzahl von Studien, die die Fehlerhaftigkeit von Excel-Tabellen belegen. Wenn wir die einfache Konstruktion einer Tabelle schon nicht verstehen oder kritiklos darauf reagieren, werden wir erst recht nicht verstehen, was in der Interaktion mit Algorithmen abgeht“, mahnt Holtel.

Das berühmteste Beispiel ist das Excel-Chaos der Harvard-Ökonomen Carmen Reinhart und Kenneth Rogoff, die ein Optimum für die Höhe von Staatsschulden als finanzpolitischen Leitfaden den Staatsregierungen ins Ohr gemauschelt haben. Es sei ein großer Fehler, den Maschinen Fähigkeiten wie Rationalität und Unfehlbarkeit zuzuschreiben, bemerkt Holtel:

„Das speist sich aus unseren täglichen Erfahrungen. Niemand rechnet Excel-Tabellen nach. 2007 gab es im Intel-Prozessor einen Hardware-Fehler, der dazu führte, dass Excel falsch rechnete. Es gibt diese systemischen Fehler sehr häufig, aber Menschen sind kaum in der Lage, diese Risiken einzuschätzen.“

Der Diskurs über Künstliche Intelligenz müsse differenzierter geführt werden.

„Wir sollten durch Aufklärung oder Machteliten-Hacking Verantwortung übernehmen, um diesen Diskurs adäquat zu begleiten“, resümiert Holtel.

Auf der Berliner D2030 Zukunftskonferenz am 6. und 7. Juli wird dieser Aspekt sicherlich zur Sprache kommen.

Siehe auch: Sozialingenieure und ihre Steuerungsinstrumente für eine „wohlwollende“ Diktatur

@DirkHelbing über Datendiktatur oder Mitmachgesellschaft?

Um 10 Uhr geht es los – #Dorfcamp #Duisdorf #Sendezentrale

6 Uhr aufgestanden, Technik aufgebaut und einen ersten Test gemacht:

Um 10 Uhr geht es los.

Start um 10 Uhr – Vorstellungsrunde und Session-Planung.
11 bis 11:45 Uhr – Erste Session
12 bis 12:45 Uhr – Zweite Session
13 bis 13: 45 Uhr – Dritte Session
13:45 bis 14:30 Uhr – Kleiner Mittagsimbiss (abends ist ja dann GrillCamp)
14:30 bis 15:15 Uhr – Vierte Session
15:30 bis 16:30 Uhr – Käsekuchen-Diskurs: Marx und die Netzökonomie
16:45 bis 17:30 Uhr – Fünfte Session
17:30 bis Open End Grillen (Fleisch oder Vegetarisches bitte mitbringen, die Getränke gehen aufs Haus).

Wir übertragen alle Sessions via Facebook Live.

„Korrekte“ Maschinen als Hausmeister für politische Hygiene – Zur #KünstlichenIntelligenz

Kann Künstliche Intelligenz irgendetwas besser machen, was Software bislang noch nicht konnte, fragt sich Stefan Holtel, Lead Cogniteer von brightONE Consulting. Das ist natürlich Unsinn.

„Nicht die Algorithmen werden in der KI zu vielen Problemen führen, sondern die Vorurteile, die in den Daten stecken.“

Also Vorurteile, die wir alle in die Daten stecken.

Wenn auf dieser Basis die KI-Systeme ihre unermüdliche Arbeit aufnehmen und Entscheidungen vorbereiten oder sogar selbst treffen, kommt ziemlicher Mist dabei heraus. Kunden, die keinen Kredit mehr bekommen, Versicherte, die Prämienerhöhungen hinnehmen müssen oder gar Netzaktivisten, die als potenzielle Störenfriede der Gesellschaft aussortiert werden. Fast alle Daten, die von Black Box-Maschinen verarbeitet werden, sind von Menschen annotiert worden.

„Wir reichern vermeintlich objektive Daten mit unseren Weltmodellen an. Das wird von keinem Algorithmus hinterfragt“, so Holtel

Konsequenz: Es fällt uns immer schwerer, die Richtigkeit von Datenberechnungen zu erkennen. Das Ganze ist sogar ein paradiesisches Feld für Trickser, Agitatoren, Autokraten und Machtgierige, sich hinter den Ergebnissen der KI-Maschine zu verstecken und die schmutzigen Entscheidungen auf die Algorithmen zu schieben. Etwa beim Scoring aller Bürgerinnen und Bürger in China. Die Führung der Kommunistischen Partei in Peking installiert „korrekte“ Maschinen als Hausmeister für politische Hygiene. Sozusagen eine Beseelung von toten Apparaten: KI-Maschinen sind wie wir, nur perfekter und unfehlbarer. Der manipulierende Maschinist bleibt dabei unerkannt. Die Drecksarbeit übernehmen Algorithmen – vergleichbar mit der unsauberen Arbeit von Consulting-Firmen, die als Alibi für den Rausschmiss von Mitarbeitern in Unternehmen engagiert werden.

„Wir müssen unser Konzept von Vertrauen in Maschinen überdenken und neu bewerten. Das ist keine technische Frage, sondern eine techniksoziologische und gesellschaftliche, die keine objektive Antwort haben wird, sondern in einem normativen Diskurs entwickelt werden muss“, sagt Holtel.

Sonst entsteht so eine Art Maschinen-Paternalismus. Vergleichbar mit der Einführung der Tabellen-Kalkulation.

„Wie haben uns den Ergebnissen ausgeliefert, die von Excel und Co. ausgespuckt werden. Dabei gibt es eine Vielzahl von Studien, die die Fehlerhaftigkeit von Excel-Tabellen belegen. Wenn wir die einfache Konstruktion einer Tabelle schon nicht verstehen oder kritiklos darauf reagieren, werden wir erst recht nicht verstehen, was in der Interaktion mit Algorithmen abgeht“, mahnt Holtel.

Das berühmteste Beispiel ist das Excel-Chaos der Harvard-Ökonomen Carmen Reinhart und Kenneth Rogoff, die ein Optimum für die Höhe von Staatsschulden als finanzpolitischen Leitfaden den Staatsregierungen ins Ohr gemauschelt haben. Es sei ein großer Fehler, den Maschinen Fähigkeiten wie Rationalität und Unfehlbarkeit zuzuschreiben, bemerkt Holtel:

„Das speist sich aus unseren täglichen Erfahrungen. Niemand rechnet Excel-Tabellen nach. 2007 gab es im Intel-Prozessor einen Hardware-Fehler, der dazu führte, dass Excel falsch rechnete. Es gibt diese systemischen Fehler sehr häufig, aber Menschen sind kaum in der Lage, diese Risiken einzuschätzen.“

Der Diskurs über Künstliche Intelligenz müsse differenzierter geführt werden. „Wir sollten durch Aufklärung oder Machteliten-Hacking Verantwortung übernehmen, um diesen Diskurs adäquat zu begleiten“, resümiert Holtel.

Siehe auch:

CIO-Kurator: Es geht nicht darum, die neuen künstlichen Intelligenzen zu verteufeln. Sie bieten privat und auch für Unternehmen auch riesige Chancen, nicht zuletzt im Bereich Usability (aber nicht nur dort). Doch müssen wir unbedingt über die Risiken aufklären, sie kommunizieren und diskutieren. Alles andere ist unverantwortlich. Privat und im Geschäft.

Künstliche Intelligenz – Eine partielle Polemik

Wie Überraschend: „Es wird in Zukunft darum gehen, den Konsumenten bei allem technischen Fortschritt nicht aus den Augen zu verlieren und modernste Technologien als Schnittstelle zwischen menschlichen Bedürfnissen und Unternehmen zu nutzen.“ Könnte auch im Wandkalender stehen. Solche Weisheiten passen immer.

Über Plauderautomaten und hungrige Robotersäuglinge #CIOKurator #Alexa #HomePod

Was bringt Sprachsteuerung oder Sprachkontrolle am Arbeitsplatz der Zukunft und im Büro von morgen, fragt sich Stefan Pfeiffer in einem CIO-Kurator-Beitrag unter dem Titel „Erna, reich den Kochlöffel rüber ODER Alexa-Hype bald auch im Büro?“.

Er kann sich intelligenten Sprachassistenten im Einzelbüro oder Home Office vorstellen.

„Hier ähnelt die Nutzung der privaten Anwendung mit dem Unterschied, dass der Sprachassistent geschäftliche Sprache lernen muss.“

In der „einfachen“, generischen Sprachsteuerung könne das trivial sein.

„Verschiebe den Termin um 10 Minuten“ wird ein Sprachassistent verarbeiten können. „Was aber, wenn komplexere Aufgaben und Fragen an den Sekretär gestellt werden: ‚Bitte hole alle relevanten Dokumente und Besprechungsprotokolle zum Projekt vernetztes Büro von morgen‘ auf den Bildschirm. Da muss der Assistent dann schon mit Unternehmensanwendungen kommunizieren. Und auch die Anforderungen an das Erlernen von Fach- und Branchensprache geht sicher weit über die ’normale‘ Sprachsteuerung hinaus“, so Pfeiffer.

Der Alexa-Hype sei ja nett. Sprachsteuerung werde nicht nur privat kommen, aber es erfordert eine sachlich-fachliche Diskussion. Bislang ist die Konversation absurdes Theater, schreibt Wiwo-Redakteur Thomas Kuhn. Es seien lediglich Prototypen, die man sich vielleicht am besten wie hungrige Robotersäuglinge vorstellt:

„Je mehr Daten in ihr System fließen, desto besser lernen sie, menschliche Konversation nachzuahmen. Jeder Dialog mit den Plauderautomaten wird aufgezeichnet, jedes Gespräch registriert, jeder Messenger-Text dechiffriert – die Bots sind ein Synonym für die wohl größte Sprach- und Textanalyse im Netzzeitalter.“

Bei standardisierten Aufgaben leisten sie schon einiges. Mal schauen, wann mehr kommt. Aber das habe ich schon vor zehn Jahren geschrieben – über virtuelle Fußballexperten und sprechende Automaten und so.