Tom's Networking Guide Deutschland - Aktuelles View RSS

Berichte aus der Netzwerkszene +++ News, Reportagen, Tests und Workshops zur Heim- und Büro-Vernetzung mit Powerline, WLAN, POF, Kabeln, Sicherheit und Nützlichem +++ Hier kommen aktuelle Meldungen +++
Hide details



CeBIT 2018 - ein holpriger Neustartversuch 14 Jul 2018 12:59 PM (6 years ago)

München – Die CeBIT ist seit vielen Jahren, fast schon Jahrzehnten, auf dem absteigenden Ast. Nach einem kurzen Hoch (um das EXPO-Jahr 200 herum) kamen immer weniger Besucher und immer weniger Aussteller nach Hannover. Messen wie die CES in Las Vegas und die IFA in Berlin haben dem ehemaligen Messe-Höhepunkt schon lange den Rang abgelaufen. In den letzten Jahren gab es kein Jahr, in dem die Messegesellschaft nicht mit mindestens einem neuen Konzept für die CeBIT aufgewartet hatte - zuweilen auch mal zwei neue Konzepte in einem Jahr. Dass die Aussteller das immer weniger mitmachen wollen, war absehbar. Zudem hatte die CeBIT so manchen Trend verschlafen. IT mit Unterhaltungscharakter wollte man als Business-Messe nie auf dem Gelände sehen. Das ging so weit, dass Sony dereinst auf Anordnung der Messegesellschaft seine Playstations vom Stand nehmen musste. In manchen Jahren behalf man sich damit, dass ganze Schulen aus dem Umland Hannovers auf das Messegelände losgelassen wurden. In anderen Jahren war die Zielsetzung, dass nur "echte" Fachbesucher die Messe besuchen dürfen. Damit wurden Firmen, die auf den Kontakt zum Endverbraucher setzten, verscheucht. Gleichzeitig entstanden immer mehr Spezialmessen, die Produktnischen deutlich besser abdecken konnte – und wieder verlor die CeBIT Kundschaft. Als weitere Maßnahme wurde die CeBIT immer kürzer. Waren es in den 90er-Jahren noch zwei Wochen, war es bald nur noch eine knappe Woche, in der Hoffnung, die Besucherströme damit mehr zu bündeln. Doch gleichzeitig ging damit wertvolle Zeit für Gespräche an Ständen verloren. Schon während und vor der CeBIT 2017 gab es viele Gerüchte rund um den Fortbestand der CeBIT. Viele schlugen vor, die CeBIT wieder mit der Hannovermesse zusammen zu legen, aus der sie vor vielen Jahren ja hervorgegangen war. Die Messegesellschaft entschied sich anders und verlegte die CeBIT in den Sommer - nichts mehr mit SchneeBIT. Gleichzeitig sollte aus der CeBIT ein Event werden; eine Messe mit Festivalcharakter wie das South-South-West oder die IFA früher. Vom Messegelände wurde letztendlich nur noch ein Bruchteil genutzt. Die Messe war auf den West-Teil zusammengeschrumpft. Nicht einmal mehr das Pressezentrum war am gewohnten Platz zu finden – es war in einen der Glaspavillions an der Halle 11 gewandert, mit dem Charme einer Fabrikhalle. Ruhige Arbeitsplätze ebenso Fehlanzeige wie Schließfächer für das Arbeitsmaterial. Ersatzweise konnten die Journalisten ihr Gepäck kostenlos an den Garderoben abgeben, was für Notebooks und ähnliches ein Unding ist. Doch nun zur Messe selbst Wer wie gewohnt vom Eingang Nord aufs Gelände kam, der musste sich erstmal auf den langen Weg zu den tatsächlich genutzten Hallen machen. Genutzt wurden nämlich lediglich die Hallen 11 bis 17 und 25 bis 27 und ein paar Pavillions rund um den Hermes-Kopf. Die Hallen 11 bis 13 waren noch fast traditionell genutzt. Hier fanden sich Firmen wie Intel, Huawei und die üblichen Verdächtigen aus dem Netzwerkbereich wie AVM, Lancom und ähnliche sowie die Antivirus-Kompanies wie Kaspersky. Aber selbst hier waren einige der Messe trotz intensiver Bearbeitung durch die Messegesellschaft ferngeblieben. Huawei hatte es sich aber nicht nehmen lassen, trotz der zeitlichen Überschneidung mit der ANGACOM, einige größere Ankündigungen auf der CeBIT zu machen. Dazu gehörte unter anderem eine Partnerschaft mit PSA im Bereich Connceted Vehicle. Dabei geht es im ersten Schritt um die Bereitstellung von Lösungen, die das Autofahren vereinfachen sollen und Dienstleistungen rund um das Auto anbieten sollen. Daneben stellte Huawei seine Smart-Airport-Lösung vor, die sowohl zur Sicherung des Flughafengeländes als auch zur Verbesserung der Kommunikation auf dem Gelände genutzt werden kann. Letztere ist in Zeiten von vernetzten Geräten und Sensoren zunehmend wichtig. Aber auch der Supermarkt der Zukunft war auf dem Stand zu bewundern - mit vernetzten Waren und Einkaufswägen, die Einkäufe selbsttätig erfassen und direkt mit dem Kassensystem kommunizieren. Am Nachbarstand widmete sich Intel dem Verkehr der Zukunft und hatte dazu einen Multicopter am Stand ausgestellt – Sinnbild für moderne Transportmittel wie Flugtaxis. In den 20er-Hallen ging es eher hemdsärmelig zu. Hier fand man die Start-ups und jungen Unternehmen. Viel Platz, wenig Mobiliiar und Standgrenzen, aber auch wenig Publikum. Auf dem Freigelände hatte SAP ein Riesenrad aufbauen lassen, am Rande eines eher Kirmes-ähnlichen Bereichs, auf dem unter anderem eine kleine Surf-Anlage zu finden war. Angrenzend an dieses Freigelände rund um den Hermes hatten sich IBM und Vodafone in Pavillonen breit gemacht. IBM hatte zusätzlich noch auf dem Bereich direkt davor eine Plattform a la "Dinner in the sky" aufgebaut. Daneben irritierte im ersten Moment ein großes Bällebad. Bei genauerem Hinsehen entpuppte sich dieses Bällebad als öffentlichkeitswirksame Kooperation mit "Water is right". Im inneren der beiden Pavillons von IBM stellte sich dann endgütlig heraus, dass IBM das Konzept der neuen Messe am besten verstanden und mit Inhalten gefüllt hatte. IBM hatte es geschafft, die spröde, eher langweilige Technik, mit anwendenden Unternehmen zu paaren, die mit ihren Produkten an den einzelnen Ständen vertreten waren. Fazit Konzerte am Abend und "Events" rund um die Hallen mögen vereinzelt neue Besucher heranziehen, aber inwieweit damit auch neue Kunden für die ausstellenden Firmen aufs Gelände kommen, ist zweifelhaft. Prof. Dr. Heckl vom Deutschen Museum hat diesen Trend - wenn auch im Zusammenhang mit PublicVieweing rund um die Fussball-WM - sehr treffend als "Eventualisierung" beschrieben: Die Inhalte werden beliebig, Hauptsache, das Event gibt was her. Und so, wie beim PublicViewing völlig uninteressant ist, wer da gerade auf dem Spielfeld steht, ist es bei der CeBIT weitgehend uninteressant, welche Produkte vorgestellt werden. Ob eine Messe sich damit halten kann, bleibt abzuwarten, wir halten es aber für unwahrscheinlich.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

Hallbergmoos – Wie Trend Micro heute bekannt gab, verstarb der langjährige europäische Chefjustiziar und Geschäftsführer der Trend Micro Deutschland GmbH, Günter Untucht, bereits am 28. Januar nach kurzer schwerer Krankheit. Mit Herrn Untucht verliert Trend Micro einen hochgeschätzten langjährigen Mitarbeiter. Neben Raimund Genes, der im vergangenen Jahr plötzlich verstarb, war Günter Untucht als Chefjustiziar für Europa und Geschäftsführer der Trend Micro Deutschland GmbH eine Leitfigur des Unternehmens. Er verstarb Ende Januar im Alter von 69 Jahren nach kurzer schwerer Krankheit. "Günters gewinnende Persönlichkeit und sein heller Verstand werden uns schmerzlich fehlen. Er wusste Rat in schweren Zeiten und verfügte über Weisheit und Vision, sowohl im Fachlichen als auch im Persönlichen. Er hinterlässt eine tiefe Lücke. Wir wünschen seiner Familie viel Kraft in dieser schweren Zeit und nehmen Abschied von unserem lieben Kollegen und Freund", so Felix Sterling, Executive Vice President und Chief Legal Officer. Frank Schwittay, Vice President Europe, ergänzt:
"Günters Tod erfüllt uns alle mit großer Bestürzung und Trauer. Er war über viele Jahre ein geschätzter Kollege und Ratgeber. Durch seine Tätigkeit war er stets besonders eng mit dem Unternehmen verbunden und trug mit seinem Tun maßgeblich zur positiven Geschäftsentwicklung bei. Wir werden Günter sehr vermissen und sind in unseren Gedanken bei seiner Familie." Als Experte für IT-Recht trat Günter Untucht regelmäßig als Sprecher auf verschiedenen Veranstaltungen auf und war Autor zahlreicher Fachbeiträge sowie des juristischen Leitfadens "IT-Security, IT-Compliance und Internet im Unternehmen", der für Deutschland bereits in der 5. Auflage vorliegt. Günter Untucht war seit 2006 bei Trend Micro und insgesamt 27 Jahre in der IT-Branche tätig. Er hinterlässt seine Ehefrau und einen Sohn.Ottawa (Kanada) / München – Mit Corel VideoStudio Ultimate 2018 lassen sich aus Videos und Fotos mühelos beeindruckende Filme erstellen. Unter einer erneut optimierten, besonders intuitiven Oberfläche bietet VideoStudio Ultimate 2018 noch mehr raffinierte kreative Funktionen. Die Höhe der einzelnen Spuren lässt sich erstmals einzeln anpassen – dadurch gelingt z. B. bildgenaues Schneiden nach Ton erheblich leichter als zuvor. Eine neue Funktion zur gleichzeitigen Integration mehrerer Videoströme eröffnet neue Möglichkeiten bei der Gestaltung von Filmen. Verzerrungen in Aufnahmen, die mit Weitwinkel- oder Action-Kameras aufgenommen wurden, lassen sich nun mühelos entfernen. Mit anpassbaren animierten 3D-Titeln lässt sich das Aussehen von Kinofilmen nachahmen.
 
Zusätzlich zur Stop-Motion-Animation, Multikamera-Bearbeitung und der Unterstützung von 4K-, HD- und 360°-Videos bietet VideoStudio Ultimate jetzt unter anderem folgende neue Funktionen und Effekte: Hinzu kommen eine Reihe von Detailverbesserungen: Die aktuellste Version ist für die neuesten Beschleunigungstechnologien von Intel und NVIDA optimiert (QuickSync und CUDA) und unterstützt damit ein reibungsloses und schnelleres Rendern in gängigen Dateiformaten. Neue Funktionen ermöglichen zudem das Authoring von XAVC S auf SD-Karten.
 
"Kunden und Rezensenten sind sich seit Langem einig, dass VideoStudio das benutzerfreundlichste Videoschnittprogramm im Consumer-Segment ist. Mit Version 2018 stellen wir sicher, dass sich die Frage der Wahl zwischen Leistung und Kreativität oder Einfachheit und Spaß nie stellt"
, sagte Michel Yavercovski, Senior Director Produktmanagement für die Videoprodukte von Corel. "VideoStudio 2018 bietet die gewohnte und von unseren Anwendern geschätzte Umgebung. Neu sind einige intelligente und intuitive Veränderungen, damit sich aus Erinnerungen und spontanen Aufnahmen noch schneller beeindruckende Videos erstellen lassen."
 
Systemvoraussetzungen Preis und Verfügbarkeit
Corel VideoStudio Ultimate 2018 ist jetzt auf Deutsch, Englisch, Niederländisch, Französisch, Italienisch, Japanisch, und traditionellem Chinesisch verfügbar. Die unverbindliche Preisempfehlung (UVP) liegt bei 89,99 € (inkl. MwSt). Das Upgrade ist für 69,99 € zu haben.
Eine Testversion und weitere Informationen zu VideoStudio sind auf www.videostudiopro.com erhältlich.
Informationen zu Mengenlizenzen für Unternehmen und Bildungseinrichtungen sind unter www.corel.com/licensing verfügbar.

Mobile World Congress 2018: 26.02. - 01.03.2018 1 Feb 2018 10:10 AM (7 years ago)

Der Mobile World Congress – oder kurz MWC – ist Europas größte Messe rund um Mobilfunk. Alljährlich werden hier von den verschiedenen Smartphone-Herstellern unter großem Aufwand die neuesten Top-Modelle vorgestellt. Datum: 26.02. - 01.03.2018 Veranstaltungsort: Barcelona, Fira Gran Via und teilweise auch Fira Monjuic Veranstalter: GSMA Besucherzahl: Vorjahr 108.000 Website: https://www.mobileworldcongress.com/ Ausstellerverzeichnis: https://www.mobileworldcongress.com/exhibition/2018-exhibitors/ Ticketpreise
Exhibition Pass: 799€
Silver Pass: 2199€
Gold Pass: 2699€ Platinum Pass: 4999€ Der nächste Mobile World Congress findet vom 25. - 28. Feb. 2019 statt. Gerüchte besagen, dass der MWC 2019 möglicherweise nicht in Barcelona stattfinden wird, da der Veranstalter Bedenken wegen der Separatismus-Bewegung in Katalonien hat.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

didacta 2018: 20.02. - 24.02.2018 1 Feb 2018 10:10 AM (7 years ago)

Die Messe didacta ist die Hausmesse des "Didacta Verband e. V. Verband der Bildungswirtschaft" und findet jährlich an wechselnden Standorten statt. Derzeit wechselt die Messe regelmäßig zwischen den Standorten Hannover, Köln und Stuttgart. 2018 findet die didacta in in Hannover statt. Veranstalter ist jeweils die örtliche Messegesellschaft. Die didacta ist eine Bildungsmesse und die größte Fachmesse für die Bildungswirtschaft in Europa. Sie ist zusätzlich noch nationale und internationale Kontaktbörse für Unternehmen. Mehr als 700 Aussteller aus über 30 Ländern präsentieren sich auf der didacta Messe Hannover auf den Themenfeldern "Frühe Bildung", "Schule / Hochschule" und "Berufliche Bildung / Qualifizierung", die zusammen mit dem Ausstellungsbereich "didacta DIGITAL" die vier Säulen bilden. Gezeigt werden neueste Lernmaterialien, Lernkonzepte und Lernumgebungen, von cleveren Whiteboards und bezahlbaren Schultablets über interaktive Lernportale bis hin zu denkenden Lego-Robotern oder auch pädagogisches Holzspielzeug. Begleitet von einem attraktiven Rahmenprogramm mit mehr als 1.500 Veranstaltungen, werden auf der Bildungsmesse didacta in Hannover wichtige Entscheidungen rund um Erziehung, Bildung und Qualifizierung getroffen. Datum: 20.02. - 24.02.2018 Veranstaltungsort: Hannover, Messegelände Veranstalter: Deutsche Messe AG Besucherzahl: ca. 70.000 Website: http://www.didacta-hannover.de/ Ausstellerverzeichnis: http://www.didacta-hannover.de/de/messe/aussteller-produkte/ausstellerverzeichnis/ Ticketpreise
Tagesticket
Vorverkauf 15€
Tageskasse 16€
Ermäßigtes Ticket: 9€ Tagesticket nachmittag (ab 13 Uhr)
Vorverkauf: 10€
Tageskasse: 10€ Tagesticket Familie
für bis zu 2 Erwachsene und 4 Kinder: 19€ Tagesticket Gruppen
für mind. 15 Personen: 13€ Dauerticket
Vorverkauf: 31€
Tageskasse: 34€ Die nächste didacta findet vom 19.2. - 23. 2.2019 in Köln statt.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

25.01.2018 – Mit der Argus 2 stellt die in Hong Kong ansässige Firma Reolink das neueste Mitglied seiner Produktfamilie vor: die Reolink Argus 2. Sie kann dank WLAN-Anbindung ins Netzwerk und Akkubetrieb komplett kabellos betrieben werden, was den Montageaufwand erheblich reduziert. Die Full-HD-Kamera (1080p) ist sowohl für Innenräume als auch für Outdoor-Nutzung geeignet. Optional gibt es noch ein Solarpanel, mit dem der im Standard-Lieferumfang enthaltene Batterie-Pack bei Sonnenschein immer nachgeladen werden kann. Bei Betrieb ohne Solarpanel oder auch bei Störungen des Solarpanels meldet sich die Kamera, sobald die Ladung des Batterie-Packs nur noch 10 Prozent erreicht hat. Eine Akku-Ladung reicht laut Hersteller-Website für 4 bis 6 Monate. „Reolink sieht es als seine Aufgabe an, den Kunden smarte Produkte und Lösungen mit praktischen Funktionen sowie gutem Preis-Leistungs-Verhältnis zu bieten. Deswegen haben wir die brandneue Reolink Argus 2 auf den Markt gebracht. Mit dieser neuen Kamera bieten wir den Nutzern unserer Produkte beim Heimschutz mehr Flexibilität und Sicherheit“, so Colin Lau, Geschäftsführer von Reolink Digital Technology Co., Ltd. Die technischen Daten im Überblick: Preis und VerfügbarkeitDie Kamera ist ab sofort verfügbar und über den Reolink-Shop auf der offiziellen Website zu beziehen. Der Preis liegt bei 105 € (129,99 US-Dollar) Link zur Produktseite: https://reolink.com/de/product/argus-2/Frankfurt am Main / Taipeh, 10.01.2018 – Mit BIOS-Updates und einem aktualisierten Intel Microcode reagieren MSI und Intel auf mögliche Sicherheitslücken in der aktuellen Microcode-Version. MSI empfiehlt allen Anwendern ihre Systeme zu aktualisieren und auf den neuesten Stand zu bringen. Nähere Informationen zu den Updates und zur Sicherheitslücke gibt es unter https://newsroom.intel.com/news-releases/intel-issues-updates-protect-systems-security-exploits und auf https://security-center.intel.com/advisory.aspx?intelid=INTEL-SA-00088&languageid=en-fr. Für folgende MSI-Z370-Boards stehen bereits BIOS-Sicherheitsupdates zum Download zur Verfügung:
PlattformModellBIOS Version
Z370Z370 GODLIKE GAMINGE7A98IMS.A30
Z370Z370 GAMING M5E7A98IMS.A30
Z370Z370 GAMING PRO CARBON ACE7B45IMS.A30
Z370Z370 GAMING PRO CARBONE7B45IMS.A30
Z370Z370I GAMING PRO CARBON ACE7B43IMS.120
Z370Z370M GAMING PRO ACE7B44IMS.120
Z370Z370 KRAIT GAMINGE7B46IMS.120
Z370Z370 GAMING PLUSE7B61IMS.120
Z370Z370 TOMAHAWKE7B47IMS.120
Z370Z370M MORTARE7B54IMS.110
Z370Z370 SLI PLUSE7B46IMS.A20
Z370Z370-A PROE7B48IMS.230
Z370Z370 PC PROE7B49IMS.120
           
Die neuen BIOS-Versionen können individuell von der MSI Homepage heruntergeladen und mittels BIOS Update eingespielt werden. Für die Aktualisierung des BIOS wird die Verwendung von M-Flash empfohlen. MSI arbeitet darüber hinaus an Updates für MSI-Motherboards der X299-, 200-, 100- und X99-Serie. Diese sollen in Kürze veröffentlicht werden.Las Vegas - Vom 9. bis 12. Januar findet in Las Vegas die CES statt. Im Vorfeld stellen viele Unternehmem ihre Neuigkeiten vor. Gaming-Monster Orion 9000
Ein Intel Core-i9-7980XE mit 18 Kernen, bis zu vier AMD-Grafikkarten RX Vega 64 oder Nvdias GTX 1080 Ti, maximal 128 GByte Quad-Channel-DDR4-Speicher und drei M.2-SSD-Steckplätze machen diesen Gaming-PC zu einem absoluten Monster für anspruchsvolle Gamer. In Sachen Anschlüssen ist die Ausstattung durchaus solide: zwei USB-3.1-Ports (Gen.2: 1 Typ C, 1 Typ A), acht USB-3.1-Anschlüsse (Gen.1: 1 Typ C, 7 Typ A) und zwei USB 2.0-Ports (Typ A). Um den PC auch mal auf eine LAN-Party mitnehmen zu können - was bei etwa 15 Kilogramm gut überlegt sein will - hat er seitliche Griffe und am hinteren Ende zwei Kofferrollen. Zur CES hat Acer bekannt gegeben, dass das System nun vorstellbar ist. In Kooperation mit Media Markt gibt es eine Bonus-Aktion: Im Aktionszeitraum bis zum 31. Januar 2018 schenkt Acer den Kunden, die einen Predator Orion 9000 bei Media Markt gekauft haben, ein hochwertiges Gaming-
Software-Bundle. Die ersten 20 Käufer erhalten zudem die Windows Mixed-Reality-Brille von Acer.
Das Software-Paket umfasst die Vollversionen der Titel "Total Wars 2: Warhammer" und "Halo Wars 2", sowie In-Game Content im Gesamtwert von 100 Euro für die Titel "Fractured Space", "Dreadnought" und "Gigantic". Zusätzlich enthält es einen Downloadcode für eine Episode des Serienhits "Game of Thrones". Der Predator Orion 9000 startet in der kleinsten Konfiguration mit einem Preis von 1.999 Euro, der im Vollausbau aber durchaus in Richtung 10.000 Euro gehen kann. Acer Nitro 5 Gaming
Acer hat gestern gleich sechs neue Notebooks gezeigt, darunter ein Gaming-Notebook für Gelegenheits-Gamer mit AMDs neuesten Ryzen-Prozessor. Das 15,6 Zoll große Full-HD-IPS-Display wird von einer AMD RX560 bepielt. Standardmäßig ist das Notebook mit einer SSD ausgestattet (bis zu 256 GByte). Eine zusätzliche Festplatte hat im Gehäuse ebenfalls noch Platz. Beim Arbeitsspeicher werden je nach Ausstattungsvariante bis zu 32 GByte DDR4-Speicher verbaut. HDMI 2.0, USB-C, Gigabit-Ethernet und WLAN 802.11ac sorgen für gute Konnektivität. In Deutschland wird das Acer Nitro 5 voraussichtlich ab März verfügbar sein. Konfigurationen und Preise sind noch nicht bekannt. Acer Predator X34P und X35
Gleich zwei gebogene Monitore kommen nicht nur auf Gamer zu. Beim Predator X34P handelt es sich um einen 34-Zoll-Monitor im 21:9 Format mit einer Krümmung von 1900R, also einer recht engen Krümmung, wodurch man den Eindruck gewinnt, dass der Monitor um einen herum läuft. Die Auflösung liebt bei 3440 x 1440 Bildpunkten, die mit einer Bildwiederholrate von 100 Hz wiedergeben. Die Bildwiederholrate kann auf bis zu 120 Hz hochgezogen werden, was jedoch zu Bildfehlern führen kann. Die Reaktionszeit liegt bei schnellen 4 ms und soll in Verbindung mit Nvidias G-Sync für flüssiges Spielen sorgen. Neben drei voreingestellten Gaming-Bildmodi lassen sich die Farbeinstellungen umfangreich an die eigenen Bedürfnisse anpassen. Das Display kann um bis zu 13 cm in der Höhe verstellt werden, lässt sich neigen und in beide Richtungen schwenken. AnAnschlüssen stehen ein HDMI-1.4-Port sowie ein Display-Port 1.2 zur Verfügung. Außerdem ist ein 4-fach USB-3.0-Hub sowie - neben den integrierten Lautsprechern - noch ein Audioausgang verbaut. Beim Predator X35 handelt es sich um einen 35-Zoll-Monitor, der mit einer Biegung von 1800R sogar noch einen engeren Radius bietet. Die Auflösung liegt wie beim X34P bei 3440 x 1440 Bildpunkten, das Display liefert jedoch eine deutlich höhere Bildwiederholrate von 200 Hz mit einer Reaktionszeit von 4 ms. Der Bildschirm ist laut Acer in 512 LED-Dimming-Zonen aufgeteilt, die nur dann beleuchtet werden, wenn sie wirklich gebraucht werden, was vor allem in dunklen Szenen für kontrastreichere Darstellung sorgen soll. Zugleich sollen 90 Prozent des DCI-P3-Farbraums abgedeckt werden. Acer BlueLightShield - zur Reduktion von blauem Licht -, ein breiter Betrachtungswinkel von bis zu 178 Grad horizontal und vertikal, sowie Dark Boost runden die Eckdaten des Displays ab. Der Predator X34P soll bereits Mitte Januar verfügbar sein und kommt mit einem emfohlenen Endkundenpreis von 1.099 Euro in den Handel. Der Predator X35, für den noch kein Preis bekannt ist, soll im 2. Quartal folgen. Zubehör
Neben der "großen" Hardware bietet Acer noch das Gaming-Headet Galea 500 und mit der Cestus 500 eine neue Gaming-Maus an. Beim Headset kommt Acers Soundscape-Technologie Trueharmony 3D zum Einsatz, die einen akustischen Raum auf Basis der Blickrichtung des Nutzers erzeugt und ein präzises akustisches Lokalisieren von Geräuschen ermöglicht. Je nach Anwendungszweck bietet das Headset drei (Klang-)Voreinstellungen. Die Maus Cestus 500 hat neben programmierbaren Tasten, RGB-Beleuchtung mit bis zu 8 LIchtmustern und Profileinstellungen noch ein Dual-Switch-Design, mit dem der Klick-Widerstand angepasst werden kann, udn vergoldete USB-Anschlüsse. Das Gaming-Headset kommt bereits im ersten Quartal 2018 und soll 249 Euro kosten. Die Gaming-Maus Cestus soll ebenfalls im ersten Quartal kommen und wird zu einem empfohlenen Endkundenpreis von 99 Euro im Handel erhältlich sein. Außerdem gibt es noch das Predator Mousepad für 19,90 Euro.

Meltdown und Spectre - ein GAU in zwei Akten 6 Jan 2018 1:09 AM (7 years ago)

Mancher Entwickler hat sich in den letzten Wochen über ungewöhnlich umfangreiche Aktivitäten rund um Betriebssysteme gewundert. Seit kurzem ist nun klar, was dahintersteckt: Nicht weniger, als der Security-GAU schlechthin. Anfang Juni wurden drei Schwachstellen an die Hersteller gemeldet, die das Herz eines jeden Computersystems angreifen - die CPU. Diese nutzt - vor allem aus Performance-Gründen - Techniken, die es dem Prozessor ermöglichen, Daten "auf Verdacht" abzurufen und zu verarbeiten, bevor diese von einer Anwendung angefordert werden. Diese Daten können dann auch von anderen Anwendungen ausgelesen werden. Das Problem betrifft gleichermaßen PCs oder Notebooks, Firmen-Server, Tablets, Smartphones und "die Cloud", die ja nichts anderes ist, als eine Vielzahl von Servern. Hintergrund des Ganzen ist die Möglichkeit, Teile des Programmcodes parallel oder in anderer Reihenfolge spekulativ ausführen zu lassen, um damit die Verarbeitung zu beschleunigen. Dabei werden unter Umständen Befehlsteile ausgeführt, die Daten abrufen, die später gar nicht benötigt werden. Diesen Umstand kann ein Angriffsszenario ausnutzen und beispielsweise Passwort-Tabellen oder andere kritische Daten abzugreifen. Wird das Ganze dann auch noch so durchgeführt, dass es lange dauert, bis diese Fehleinschätzung zum Löschen der Daten aus dem Cache-Speicher der CPU führt, kann eine Schad-Anwendung diesen Speicherbereich einfach abgreifen und das im Normalfall ohne aufzufallen. Vereinfacht wird es noch dadurch, dass moderne Prozessoren eine Art Adressliste speichern, die schnellen Zugriff auf den gesamten Arbeitsspeicher - einschließlich des eigentlich geschützten Speicherbereichs des Kernels - ermöglicht. Trotz eines Sicherungs-Bits, das den Zugriff durch Prozesse ohne ausreichende Berechtigungen verhindern soll, kann es gelingen, zumindest Teile eines solchen Speicherbereichs auszulesen, bevor die fehlende Berechtigung auffällt. Die Sicherungsschicht zwischen System und Nutzer wird "weggeschmolzen", daher heißt dieser Teil der Schwachstellen "Meltdown". Nach bisherigen Erkenntnissen sind von dieser Lücke vermutlich "nur" Intel-Prozessoren betroffen. Die Liste der Prozessoren ist allerdings lang und reicht auf mehrere Jahre alte Prozessor-Generationen zurück. (https://security-center.intel.com/advisory.aspx?intelid=INTEL-SA-00088&languageid=en-fr) Für diesen Teil der Schwachstelle bieten die Betriebssystem-Entwickler mittlerweile Patches an, die jedoch vor allem bei Servern je nach Belastung des Systems zu spürbaren Leistungseinbußen führen können. Grund für diese Performance-Einbuße ist, dass unter anderem die Adresstabellen weitestgehend für sichere und unsichere Speicherbereiche geteilt wird. Die Updates von Microsoft sollten ursprünglich erst am 9. Januar beziehungsweise für Microsoft Azure am 10. Januar ausgerollt werden, wurden jedoch vorgezogen, nachdem die Ursache offenbar geworden war. Aktuell installieren jedoch nur die Systeme das Patch erfolgreich, auf denen keine oder auf Kompatibilität getestete Antivirus-Software installiert ist. Bis zum geplanten Roll-out-Termin sollten die letzten offenen Test allerdings abgeschlossen sein. Apple hat laut eigenen Aussagen die Änderungen bereits mit den letzten Updates umgesetzt, will aber noch nachbessern. Für Linux-Systeme sind erste Patches ebenfalls bereits verfügbar. Komplexer ist das Ganze bei der zweiten Schwachstelle, die Spectre (Schreckgespenst) heißt. Genau gesagt, gibt es von Spectre zwei Varianten. Zumindest die erste davon betrifft neben den Intel-Prozessoren zudem eine Reihe von AMD- und ARM-CPUs. AMD gibt unter https://www.amd.com/en/corporate/speculative-execution bekannt, dass die Prozessoren nur für die erste Spectre-Variante anfällig sind und das durch Software-Updates gelöst sei. Die zweite Spectre-Variante und Meltdown seien für die AMD-CPUs aufgrund anderer Architektur nicht relevant.
ARM hat unter https://developer.arm.com/support/security-update eine vorläufige Liste veröffentlicht. Cortex-A8 und Cortex-A15 werden derzeit noch geprüft. Nvidia untersucht ebenfalls noch, ob es anfällige Systeme gibt. Das Gefährliche an Spectre ist, dass gängige Befehls-Bibliotheken missbraucht werden, um auf Umwegen Daten auszulesen. In der Variante 1 ("bounds check bypass") besteht die Möglichkeit, alle Daten auszulesen, die beispielsweise vom Browser im Speicher zwischengelagert werden. Das könnten beispielsweise komplette unverschlüsselte Passwortsätze in einer Browsersession sein! Diese Schwachstelle lässt sich nicht durch ein Betriebssystem-Update beheben, sondern muss in den einzelnen Anwendungen gepatcht werden. Firefox hat mit dem aktuellen Update (Version 57.0.4) reagiert. Google hat Updates für Chrome und ChromeOS in Arbeit beziehungsweise bereits ausgerollt und weist unter https://support.google.com/faqs/answer/7622138 aus, in welchen Fällen der Nutzer selbst noch Maßnahmen ergreifen muss. Für Chrome empfiehlt Google das Aktivieren der Aufteilung von Sites auf getrennte Prozesse (chrome://flags/#enable-site-per-process).
Die zweite Variante von Spectre ("branch target injection") betrifft einen Fall, der ausschließlich in virtualisierten Umgebungen eintreten dürfte. Dabei ist es aus einer virtuellen Maschine (Gast-System) heraus möglich, auf den Speicher des Host-Systems durchzugreifen und damit auf Daten eines anderen Gast-Systems auf derselben CPU. Microsoft hat unter https://support.microsoft.com/en-us/help/4073119/protect-against-speculative-execution-side-channel-vulnerabilities-in ein Script veröffentlicht, mit dem erfahrene (!) Nutzer selbst prüfen können, ob die Patches erfolgreich umgesetzt wurden oder nicht. Während Meltdown sich vermutlich durch Änderungen in der Hardware mittelfristig verhindern lässt, sind die Spectre-Varianten schwieriger zu unterbinden. Die Autoren des Dokuments zu Meltdown (https://meltdownattack.com/meltdown.pdf) weisen allerdings darauf hin, dass die nun aufgedeckten Sicherheitslücken in den CPUs die Vermutung nahelegen, dass es noch mehr unentdeckte und unveröffentlichte Schlupflöcher geben dürfte, und dass selbst fehlerfreie Software nicht schützt, wenn eventuelle Sicherheitsprobleme in der darunterliegenden Hardware nicht beachtet werden. Update 6.1.2018, 13:50 Uhr
Laut CNBC hat sich mittlerweile Qualcomms CEO Steve Mollenkopf dahingehend geäußert, dass einzelne Prozessoren betroffen seien, und dass an Patches gearbeitet werde. Welche genau das sind, ließ Mollenkopf jedoch offen. Es wird jedoch davon ausgegangen, dass der gerade vorgestellte Qualcomm Snapdragon 845 auf die Liste gehört, da vier der acht Kerne auf dem ARM Cortex-A75 basieren sollen, der laut ARM betroffen ist. Linkliste
https://meltdownattack.com/
https://spectreattack.com/
https://newsroom.intel.com/news/intel-responds-to-security-research-findings/
https://newsroom.intel.com/news-releases/intel-issues-updates-protect-systems-security-exploits/
https://googleprojectzero.blogspot.de/2018/01/reading-privileged-memory-with-side.html
https://support.microsoft.com/en-us/help/4073119/protect-against-speculative-execution-side-channel-vulnerabilities-in
https://security-center.intel.com/advisory.aspx?intelid=INTEL-SA-00088&languageid=en-fr
https://www.amd.com/en/corporate/speculative-execution
https://developer.arm.com/support/security-update
https://support.google.com/faqs/answer/7622138
https://meltdownattack.com/meltdown.pdf
https://spectreattack.com/spectre.pdf
https://www.darkreading.com/attacks-breaches/the-nightmare-before-christmas-security-flaws-inside-our-computers/a/d-id/1330756
https://security.googleblog.com/2018/01/todays-cpu-vulnerability-what-you-need.html
https://youtu.be/RbHbFkh6eeE
https://youtu.be/bReA1dvGJ6Y
https://www.cnbc.com/2018/01/05/qualcomm-working-on-spectre-chip-security-fixes.html

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

München – Am 14.09.2017 hat das Bundesinnenministerium ZITiS in München eröffnet. Die neue "Zentrale Stelle für Informationstechnik im Sicherheitsbereich" soll fortan dafür sorgen, dass Deutsche Dienste und Behörden künftig auf Augenhöhe mit Cyber-Kriminellen agieren können. Die neue Einrichtung versteht sich, so ZITiS-Präsident Wilfried Karl, als "Forschungs- und Entwicklungsinstanz für technische Lösungen mit Cyberbezug. Wir verstehen uns als Dienstleister der Sicherheitsbehörden in Deutschland und unterstützen diese, indem wir das technische Know-How bündeln. Durch unsere Expertise schaffen wir Werkzeuge und Lösungen, die die Aufgabenerfüllung der Sicherheitsbehörden zukünftig noch besser unterstützen." Es geht um Cybersicherheit, um die Durchsatzung von Recht im Internet und um die Abwehr von Gefahren, die aus der Digitalisierung erwachsen. Die ZITiS-Arbeitsfelder beschreiben die dürre Pressemitteilung und die Web-Seite wie folgt: Digitale Forensik, Telekommunikationsüberwachung (TKÜ), Kryptoanalyse und Big-Data-Analyse. Die Zuständigkeiten von ZITiS beschrieb Bundesinnenminister Thomas de Maizière wie folgt: "Das ZITiS soll Forschung und Entwicklung des Bundes bündeln." Im Gegensatz zu Einrichtungen wie dem Bundesamt für Sicherheit im Informationswesen (BSI) oder dem Bundesnachrichtendienst (BND) führe ZITiS keine hoheitlichen Aufgaben aus- "Hier wird nicht abgehört", versicherte der Bundesinnenminister. Er betonte: "Das Internet ist kein rechtsfreier Raum!" Die Behörden müssten im Internet das Können, was Sie auch außerhalb auch können. Denn die Behörden hätten die Verpflichtung, Straftäter und Gefährder zu erwischen. Deutlich sprach sich der Innenminister FÜR die Privatsphäre aus: "Die Bundesregierung wünscht und fördert sichere Kommunikation. Wir unterstützen die Ende-zu-Ende-Verschlüsselung." Dennoch müssten Strafverfolger zugreifen dürfen. Die Überwindung der Verschlüsselung sei im Einzelfall nicht leicht. Dennoch lehne man die Übergabe von Schlüsseln und von Backdoors – wie andernorts praktiziert – entschieden ab. Zugriffe mit ZITiS-Technik würden nur im Einzelfall erfolgen und müssten ein Rechtgrundlage haben, so der Bundesinnenminister. Die Verantwortung bliebe immer bei der anwenden Behörde. Trotz der hohen Lebenshaltungskosten sei München wegen der hier vorhandenen Kompetenzen und der Industrielandschaft als ZITiS-Standort gewählt worden. Das Start-Team des ZITiS soll, so de Maizière, in München zunächst ein Nest bauen und dann Menschen werben, in das Nest zu kommen – zunächst in einem ehemaligen Betriebsgebäude der Firma Giesecke&Devrient. Später soll ZITiS in ein eigens dafür errichtetes Gebäude auf dem Gelände der UniBwM in Neubiberg bei München umziehen. ZITiS selbst habe eine "gute und auskömmliche" Ausstattung mit Geldmitteln und soll anfangs 170 Mitarbeiter haben. Der Bundesinnenminister bedankte sich bei der ebenfalls anwesenden Bayerischen Staatsministerin für Wirtschaft und Medien, Energie und Technologie, Ilse Aigner. Sie habe sich den Aufbau der ZITiS zur Aufgabe gemacht. Dank richtete er ferner an die Universität der Bundeswehr (UniBW), die die die Gefahrenabwehr einem eigenen Lehrstuhl für Cybersicherheit unterstützt. Das neue Forschungsinstitut "CODE" werde, so UniBwM-Pressesprecher Michale Brauns, ab dem 1. Januar 2018 mit elf neu geschaffenen Professorenstellen besetzt. Für Ilse Aigner wiederum ist München nicht nur wegen räumlichen der Nähe zur Bundeswehr-Universität genau der richtige Ort für ZITiS. In Bayern existiere ein Zentrum für Digitalisierung, das mit der Technische Universität München und umliegenden Firmen ein Sicherheitsnetzwerk bilde.
Vor dem ZITiS-Gebäude demonstrierten, trotz Kälte und Regen, zwei Vertreter des Vereins Digitalcourage, gegen einen weiteren Abbau von Bürgerrechten und Privatsphäre.

BPC - The next big thing 31 Mar 2017 7:49 AM (8 years ago)

München/Hannover - Digital Transformation ist nicht erst seit der CeBIT in aller Munde. Doch was diese Transformation der Unternehmen so alles mit sich bringt, bedenken nur wenige zu Ende. Nehmen wir ein mittelständisches Unternehmen, dass auf moderne IT umgestellt hat und seine Rechnungen automatisiert aus dem Buchhaltungsprogramm direkt an die Druck- und Frankiermaschine leitet, die auch das Eintüten der Rechungen und das Sortieren nach PLZ-Bereich übernimmt. Eine tolle Errungenschaft, spart Geld und Arbeitszeit. Alle sind glücklich. Schaut man sich das Ganze aber einmal genauer an, bietet genau dieses System einige Angriffsmöglichkeiten. Voraussetzung dafür ist, dass sich Cyberkriminelle Zugriff auf die IT-Umgebung verschafft haben. Umfragen zeigen, dass immer noch nur ein Bruchteil der erfolgreichen Angriffe auf Infrastruktur entdeckt werden - solange die Cyberkriminellen keine groben Fehler machen. Einmal im System angekommen, kann der Angreifer es sich erstmal im System gemütlich machen und späht die Unternehmensprozesse aus. Also genau solche Verfahren, wei das automatische Erstellen von Rechnungen. Dabei werden zumeist vorgefertigte Vorlagen mit dem Inhalt - der eigentlichen Rechnung - kombiniert. Und da haben die Cyberkriminellen auch schon fast ihr Ziel erreicht, denn die Vorlagen enthalten unter anderem auch die Kontoverbindung, an die der Rechnungsbetrag zu überweisen ist. Im einfachsten Fall tauschen sie nun nur noch die IBAN und schon geht das Geld nicht mehr an die Firma, die die Rechnung gestellt hat, sondern landet auf einem schwer bis gar nicht nachvorfolgbaren Konto. Zugegeben, dieses Vorgehen wird sehr schnell auffallen, weil spätenstens nach Ende des Zahlungsziels Mahnungen rausgehen und der Schwindel auffällt. Doch was, wenn zusätzlich zur IBAN auch noch der Betrag manipuliert wird und der eigentliche Rechnungsbetrag nach Geldeingang sofort auf das Konto des Unternehmens weitergeleitet wird? Die Firma hat ihr Geld, der Kunde hat - wenn auch zu viel - aber gezahlt und beide Seiten sind zufrieden. Und der Cyberkriminelle natürlich auch, denn diese Geldquelle versiegt nicht so schnell, wenn er nicht zu gierig wird. Dieses Beispiel ist kein Hirngespinnst. Udo Schneider, Security Evangelist von Trend Micro, hat dieses Szenario auf der Preview-Veranstaltung zu CeBIT in München live demonstriert. Bekannte BPC-Fälle
Aber ausgehend von diesem Szenario lassen sich durchaus auch andere Planspiele entwerfen. Einen ersten großen Fall aus dem Jahr 2013, beschrieb Raimund Genes, der kürzlich verstorbene CTO von Trend Micro, in einem Blogartikel. Im Hafen von Antwerpen hatten Drogenhändler das IT-System gehackt, das für die Verwaltung der Positionen und Bewegungen der einzelnen Container innerhalb des Hafengeländes zuständig war. Mit Drogen oder anderen illegalen Waren bestückte Container verschwanden durch dieses System dann einfach mal vom Bildschirm und konnten ungehindert und vor allem unkontrolliert auf Zugmaschinen verladen werden und das Gelände verlassen. Bei einem anderen Fall aus dem vergangenen Jahr, der unter dem Begriff "Bangladesh Central Bank Cyber Heist" bekannt geworden ist, wurden die Prozesse hinter dem Kommunikationsverfahren zwischen der Bank und SWIFT kompromittiert. Zudem wurden die Drucker der Bank manipuliert und im Anschluss an einem Wochenende Überweisungsanfragen an die US-Notenbank in New York übermittelt. Es handelte sich um Millionen-Überweisungen an Konten in Asien. Der Verlust belief sich auf immerhin 81 Millionen $.  Nach Bekanntwerden dieses Falls verschickte SWIFT eine Warnung an alle Banken, woraufhin sich zwei weitere Banken meldeten, die ähnliche Vorfälle schilderten. Eine vietnamesische Bank hatte Glück: Eine Forderung in Höhe von 1,3 Millionen $ wurde geblockt. Weniger gut erging es einer Bank in Ecuador, die bereits 2015 12 Millionen $ auf diesem Weg verlor. Diese drei Beispiele zeigen, wie Business Process Compromise funktioniert. Sie stehen exemplarisch für ein Geschäftsmodell, dass in ganz großen Bahnen denkt. Unternehmensprozesse zu manipulieren erfordert Geduld und umfangreiche Kenntnisse. Es geht dabei weniger um den schnellen Gewinn sondern darum, die Prozesse in den Unternehmen so gut zu verstehen, dass man sie zum eigenen Nutzen anpassen kann ohne, dass es im Unternehmen auffällt. Was hilft?
Neben einer gut funktionierenden Sicherheits-Infrastruktur sind die Mitarbeiter gefordert. Prozesse dürfen nicht als selbstverständlich betrachtet werden. Sie müssen immer wieder Kontrollen unterzogen werden und alle Mitarbeiter, die damit zu tun haben, müssen Abweichungen wahrnehmen können, was voraussetzt, dass jeder die Abläufe genau kennt. Eva Chen, CEO von Trend Micro, brachte die Aufgabe, die Unternehmen für einen bestmöglichen Schutz bewältigen müssen, auf eine einfache Formel: "Unternehmen stehen vor zunehmenden Herausforderungen, die eine Variable X in ihren Sicherheitslösungen darstellen. Um ihre Umgebungen erfolgreich abzusichern, müssen Sicherheitsverantwortliche Wechsel in der Infrastruktur (I) voraussehen und Änderungen im Nutzerverhalten (U) einkalkulieren, um einen Schutz vor neuen Bedrohungen (T) aufzusetzen. Diese Voraussetzungen führen zu einer einfachen doch effizienten Formel des Erfolgs – von uns XGen genannt: X = I + U – T."

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

In Erinnerung an Raimund Genes 28 Mar 2017 4:44 AM (8 years ago)

Hallbergmoos und Tokio, 28. März 2017. In großer Trauer nehmen Trend Micro und seine 5.500 Mitarbeiter Abschied von Raimund Genes. Der langjährige Chief Technology Officer des japanischen IT-Sicherheitsanbieters starb am Freitag, den 24. März, bei sich zuhause unerwartet an den Folgen eines Herzinfarkts. Genes wurde 54 Jahre alt.

„Schweren Herzens und tief betrübt muss ich Euch alle über den unermesslichen Verlust unseres Freundes und Kollegen Raimund Genes informieren“, so Eva Chen, Chief Executive Officer von Trend Micro in einer Nachricht an alle Mitarbeiter. „Wir sind schockiert und untröstlich. Raimund war ein außergewöhnlicher Mensch und eine große Führungspersönlichkeit, er war ein Vertrauter und Freund. Unsere Gedanken sind bei seiner Familie.“

Raimund Genes‘ Name und Wirken waren in den vergangenen 21 Jahren untrennbar mit Trend Micro verbunden. Er baute das Unternehmen in Deutschland und Europa auf und verlieh ihm als Chief Technology Officer eine wichtige Stimme in der Öffentlichkeit. Genes, der mehr als dreißig Jahre Erfahrung in Computer- und Netzwerksicherheit hatte, war seit 2005 Chief Technology Officer des japanischen IT-Sicherheitsanbieters. In dieser Position verantwortete er die Einführung neuer Methoden zur Erkennung und Bekämpfung von Malware und leitete ein weltweites Expertenteam, das für das „Smart Protection Network“ neue Technologiekomponenten zum Schutz vor E-Mail-, Web- und Datei-basierten Bedrohungen entwickelt. Diese technische Infrastruktur, die die Grundlage der Lösungen von Trend Micro bildet und eine Vorreiterrolle innerhalb der IT-Sicherheitsbranche spielt, geht maßgeblich auf seine Initiative zurück. Gemeinsam mit seinem weltweiten Team aus Bedrohungsforschern sagte Genes zudem Entwicklungen im cyberkriminellen Untergrund voraus, die er beispielsweise in den jährlichen Sicherheitsvorhersagen veröffentlichte.

„Trend Micro und die gesamte IT-Sicherheitsbranche haben einen außergewöhnlichen Visionär und einen wunderbaren Menschen verloren. Raimunds Talent, Wissen, Leidenschaft und großer Sinn für Humor werden uns allen sehr fehlen“, so Jenny und Steve Chang, zusammen mit Eva Chen die Mitbegründer von Trend Micro. „Raimund war branchenweit für sein enormes Wissen in IT-Sicherheit bekannt, und wir erinnern uns alle an die lebendigen und bildhaften Beispiele, mit denen er sein Publikum über die Notwendigkeit von Cyber-Sicherheit unterrichtete. Er war fester Bestandteil unseres Vorstandsteams. Wir haben seinen Ehrgeiz sehr geschätzt, sich und das Unternehmen immer und immer wieder herauszufordern. Sein Antrieb für kontinuierliche Verbesserungen und sein bemerkenswertes Talent haben sich auf andere übertragen und dort die Leidenschaft für IT-Sicherheit entfacht. Er war für so viele Trend Micro-Mitarbeiter ein großartiger Mentor.“

Frank Schwittay, Vice President Europe, ergänzt: „Viele von uns haben mit Raimund Genes über so viele Jahre zusammengearbeitet und wir alle haben ihn als visionären, inspirierenden, couragierten und fachlich unvergleichlichen, ja einmaligen Kollegen schätzen gelernt. Obwohl er seit vielen Jahren in seiner globalen Rolle als CTO ständig weltweit unterwegs war, hat Raimund durch sein Tun maßgeblich den Erfolg von Trend Micro in Europa und ganz speziell in Deutschland mit geprägt. Ohne ihn wären wir nicht dort, wo wir heute sind.“

Vor 2005 hatte Genes beim japanischen IT-Sicherheitsanbieter mehrere führende Positionen inne. So zeichnete er als President of European Operations für die EMEA-Region verantwortlich, war Vice President für Vertrieb und Marketing in der Europa-Region und Geschäftsführer der Trend Micro Deutschland GmbH, die er 1996 gründete.

Raimund Genes trat weltweit als Sprecher auf und war Autor zahlreicher Beiträge. Er hinterlässt seine Ehefrau sowie zwei Söhne.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

Dieses Jahr feierte das Internet seinen 25. Geburtstag. Im Januar 2017 wird das iPhone zehn Jahre alt. Beides zusammen hat die Art und Weise, wie wir miteinander kommunizieren, nachhaltig verändert. Kommunikation ist direkter und unmittelbarer geworden: Über App-Dienste lassen sich verschiedenste Bild-, Video- und Audioformate schnell und einfach teilen. Ein Großteil der User – insbesondere die um das Jahr 2000 geborenen "Millennials" - ist sogar 24 Stunden am Tag online. Diese Zielgruppe erwartet von Unternehmen eine Reaktionszeit innerhalb der Sekunde, in der die Dinge passieren und das mobil über WhatsApp oder andere Kanäle - E-Mail und selbst Facebook sind für Millennials Medien der vergangenen Zeit. "Millennials" erwarten Kommunikationskomfort
Für die Zukunft zeichnet sich ab, dass der Mobile-Trend weiter geht: Allein in Deutschland gibt es bei rund 80 Millionen Einwohnern über 126 Millionen gültige Handyverträge, also etwa 1,5 Verträge pro Kopf, und 72,2 Prozent der Internet-User nutzen das Netz auch mobil. Diese Entwicklungen dürfen und können Unternehmen und ihre HR-Abteilungen nicht ignorieren, wenn sie in Zukunft im Kampf um die besten Talente konkurrenzfähig bleiben wollen. Denn das Wachstum vieler Unternehmen hängt schon heute weitgehend von der Verfügbarkeit qualifizierter Mitarbeiter ab. Und die nachkommende Millennial-Generation, die jetzt ins Berufsleben startet, ist es aus dem privaten Alltag gewohnt, flexibel zwischen verschiedenen digitalen Kanälen hin und her zu springen. Sie nutzen die sozialen Medien und Cloud-Dienste ganz selbstverständlich und setzen im Berufsleben diese Kommunikationswege ebenso voraus. Doch Unternehmen müssen nicht nur zukünftige Mitarbeiter zufrieden stellen, um sie langfristig zu binden. Nach wie vor gilt auch: Zeit ist Geld. Und aktuell kostet Unternehmen die Suche nach den "richtigen" Informationen noch immer sehr viel Zeit. Das liegt allerdings nicht an einem Mangel an Daten - diese sind im Zeitalter der digitalen Transformation geradezu im Überfluss vorhanden. Doch es fehlen geeignete Tools, die Daten aus verschiedenen Quellen zu jedem gewünschten Zeitpunkt zu nutzbaren Informationen zusammenführen. Operative Prozess auslagern?
In den Personalabteilungen stehen oft einfache Kennzahlen, wie etwa Anzahl der Mitarbeiter, Krankenquote oder Durchschnittsalter, nicht auf Abruf bereit. Die Daten dazu müssen erst aufwendig zusammengetragen und ausgewertet werden. Das ist schlicht nicht mehr zeitgemäß - ganz im Gegenteil: Dokumente sollten "on time" abrufbar sein und HR-Mitarbeitern mit wenigen Mausklicks zur Verfügung stehen. HR-Prozesse müssen also optimiert und verschlankt werden, um in einer digitalen Welt wirtschaftlich zu bleiben. Dabei stellt sich die Frage: Sollten HR-Manager weiterhin alle operativen Prozessschritte selbst ausführen? Wäre es nicht sinnvoller die Prozesse zu den direkten Prozessbeteiligten – Mitarbeiter, Bewerber oder Abteilungsleiter – zu verlagern? Technische Unterstützung ist die halbe Miete
HR-Prozesse zu verschlanken und zu verlagern, um Kapazitäten für strategische Aufgaben zu gewinnen, kann allerdings nur mit einer intelligenten HR-Software gelingen. Diese muss einige grundlegende Kriterien erfüllen: Führten vorher HR-Experten einzelne Prozessschritte aus, muss die Software nun für "Laien" aus anderen Fachabteilungen intuitiv bedienbar sein. Zudem wird Kommunikation zusehends ortsunabhängig. Daher muss die Software als sichere Software-as-a-Service-(SaaS)-Lösung bereitgestellt und mit allen mobilen Endgeräten kompatibel sein. Um den Überfluss an vorhanden Daten und Dokumenten in sinnvolle und leicht erfassbare Informationen umzuwandeln, sollte sie diese außerdem fallbezogen zusammenstellen können. Zur Vorbereitung auf ein anstehendes Mitarbeitergespräch bekommt der Vorgesetzte so zum Beispiel die Zielvereinbarung und die Vorlage für den Gesprächsbogen automatisiert angeboten und kann diese einfach mit dem Mitarbeiter zur Gesprächsvorbereitung teilen. Nicht zuletzt müssen anstehende Aufgaben und Prozesse für den jeweiligen Anwender transparent dargestellt werden. Alte Zöpfe abschneiden
Die Rolle von HR ändert sich nachhaltig und in Zukunft wird es die Personalabteilung, wie wir sie heute kennen, nicht mehr geben. Durch die stetige Weiterentwicklung von Technologien wie Cloud-Services, kann die HR-Abteilung selbst passende Tools zur Verfügung stellen - und emanzipiert sich dadurch immer mehr von der IT. Der HR-Manager der Zukunft wird so zunehmend zum Prozess-Designer. Entscheider sollten daher jetzt handeln, alte Zöpfe abschneiden und mit modernster technischer Unterstützung ihre neue Rolle als Business-Partner des Unternehmens aktiv gestalten.München – Die FAST LTA AG will auf der CeBIT 2017 unter dem Motto „Leidenschaft für Datensicherung“ zwei Neuheiten für ihr "Silent Brick" genanntes Speichersystem zeigen. In Halle 2 werden am Stand A37 erstmals die neuen Speicherlösungen Silent Brick Flash und Silent Brick WORM ausgestellt. Mit diesen Produkte will die FAST LTA den Erfolg ihres Silent Brick Systems fortsetzen. Dieses System dient der offline-fähigen Aufbewahrung und dem Transport große Datenmengen. Durch flexiblen Konfiguration können nun NAS, SecureNAS, revisionssicheres Archiv und VTL innerhalb eines einzigen Systems kombiniert werden. Auf den Einsatz als Network Attached Storage (NAS) der neue Silent Brick Flash ausgelegt, der in Kapazitäten von 3, 6 und 12 Terabyte (brutto) an. FAST adressiert damit Anwendungen, bei denen Daten überschreibbar bleiben sollen. Der Einsatz von Flash-Speichern verspricht höhere Geschwindigkeit. Für die revisionssichere Archivierung von Daten ist hingegen der neue Silent Brick WORM ausgelegt, also für Daten, die nicht überschreibbar gelagert werden müssen. Die Rechtskonformität wird durch Zertifizierung und Versiegelung gewährleistet. Mit der Sytemerweiterung kann die Funktionalität der Silent Cubes, die FAST LTA in mehreren tausend Installationen (siehe Referenzen) erfolgreich bei Kunden installiert hat, ebenfalls im Silent Brick System integriert werden. Matthias Zahn, Gründer und Vorstand der FAST LTA AG, erklärt: „Wir haben in diesem Jahr das Motto ‚Leidenschaft für Datensicherung‘ gewählt und untermauern dies durch unsere Neuvorstellungen, den Silent Brick Flash und den Silent Brick WORM. Unsere Kunden können damit das Silent Brick System noch flexibler für die jeweiligen Einsatzszenarien konfigurieren. Wir bieten dem Mittelstand mit Enterprise-Technologien wie Erasure Coding und Cold Storage Datensicherungs-Lösungen auf dem Niveau großer Konzerne an.“ Neben NAS und revisionssicherer Archivierung beherrschen Silent Bricks ferner den VTL-Modus und einen auf linearer Speicherung basierenden SecureNAS-Modus. In dieser Betriebsart gespeicherte Daten sind nicht nur gegen versehentliches Löschen gefeit sondern auch gegen Manipulation, etwa durch Ransomware. Darüber hinaus schützt die Replikation auf Basis einzelner Silent Bricks vor Datenverlust durch den Komplettausfall eines Standortes. Daten auf SecureNAS-Volumes können somit vom Backup-Prozess ausgenommen werden. Das soll Komplexität und Kosten reduzieren helfen. Dem Silent-Brick-System liegt eine flexible Speicherarchitektur auf Basis herausnehmbarer Speicher-Container zugrunde. Diese Silent Bricks sind bislang mit handelsüblichen Festplatten oder SSDs bestückt. Zur CeBIT 2017 kommen die beiden neuen Varianten Silent Brick Flash und Silent Brick WORM hinzu. Durch Kombination mehrerer fortschrittlicher Technologien versprechen die Münchner Storage-Spezialisten konkurrenzfähige Preise im Vergleich zu Bandspeicher, kombiniert mit den Vorteilen schneller HDD- oder Flash-Speicher. Das Ergebnis ist das transportables Speichermedium, Silent Brick, der bis zu 24 TByte Nutzdaten speichern kann und diese wahlweise mit dual oder triple Parity, oder durch Erasure Coding mit vier Redundanzen absichert. Die Kapazität des Silent-Brick-Systems lässt sich bis in den Bereich mehrerer Petabytes erweitern. Die Entwicklung des Silent-Cubes-Speichersystem folgte speziell den Anforderungen der rechtskonformen Langzeitspeicherung von Permanentdaten. Nun folgt der Silent Brick WORM:  Daten auf Silent Cubes lassen sich auf Wunsch einfach und revisionssicher auf WORM-versiegelte Silent Bricks migrieren. Dabei sollen individuell konfigurierbare reservierte Speicherbereiche, sogenannte „Volumes“, und „Shares“, Netzwerkfreigaben mit einstellbaren Zugriffsrechten, stellen, wie bei den Silent Cubes, die Anbindung an die Software-Lösungen der Kunden sicher stellen.

Acronis True Image 2017: Backup mit Sicherheit und Signaturen 18 Jan 2017 4:10 AM (8 years ago)

München – Was bringt einen Speicher-Spezialisten dazu, seine Backup- und Recovery-Lösungen nun mit Sicherheits-Merkmalen auszustatten? Der Erfindungsreichtum der bösen Hacker. Sie gehen vornehmlich mit Ramsomware auf Rechner, deren Speicher und deren Backups los mit dem Ziel, deren Besitzer zu erpressen. Ransomware verschlüsselt Datenträger, egal ob lokal auf der Festplatte des Rechners, auf einem NAS oder in der Cloud, und gibt deren Usern erst dann wieder Zugriff, wenn sie ein "Schutzgeld" entrichtet haben – mithin aber auch gar nicht mehr. So liegt der Schaden für die Anwender weniger in den erpressten Geldbeträge (oft nur im zig-Euro-Bereich), sondern in der Zeit und Mühe, die mit der Wiederherstellung ihrer Daten verbunden ist.  Das will die Firma Acronis mit der neuen Sftware-Suite Acronis True Image 2017 New Generation nachhaltig ändern. Sie hat dazu den ehemaligen Chefentwickler von Kaspersky Lab, Nikolay Grebennikov, abgeworben und die Software-Suite mit Acronis Active Protection, Acronis Notary und Acronis ASign ausgestattet: 

Derart angehübscht, ist Acronis True Image 2017 New Generation die erste Backup-Lösung im Markt, die mit aktiver Schutztechnik in Echtzeit Ransomware erkennen und davor schützen soll. Dabei stellt die Software automatisch alle Daten aus dem Backup wieder her und schützt Datensicherungen und Backup-Applikationen. Zur Produktvorstellung war Serguei Beloussov, CEO und Co-Founder von Acronis, am 18. Januar 2017 nach München gereist. Dort erläuterte er Vertretern der Fachpresse, das Business-Modell seiner Firma: Sicherheits-Merkmale der von Großunternehmen eingesetzten Backup- und Storage-Produkte für Endverbraucher und Kleinunternehmen erschwinglich zu machen. Acronis verfügt in diesem Marktsegment bereits über einen breiten Erfahrungsschatz: Mehr als fünf Millionen Menschen würden weltweit bereits Acronis True Image einsetzen, denn "people insist on owning their data", so Beloussov. Wenn aber Menschen auf dem Besitz ihrer Daten bestünden, müsste Dritten der Zugriff darauf erschwert werden. Das beträfe insbesondere Cloud-basierte Speicherlösungen, egal, wie hartnäckig manche Unternehmen ihre Cloud-Speicher gegen staatlichen Begehrlichkeiten verteidige. "Even Apple can be easily penetrated by FBI people trained an installed inside Apple", erläuterte Beloussov. Abhilfe schaffe das von Acronis etablierte Sicherheitssystem, bestehend aus Cloud-Speichern in mehreren Ländern und die neuen Sicherheits-Features der Acronis-Backup- und Restore-Software. Backup-Server betreibt Acronis in Ländern rund um den Globus: So könnten Firmen und Privatpersonen sicherstellen, dass ihre Backups den in ihren Staaten gültigen Rechtsverordnungen für die Speicherung von Daten genügten, so Beloussov. Er weist aber darauf in, dass es jedem anheim gestellt sei, solchen Regeln zu entsprechen: "It's up to you weather you follow your government". Mit ihren Cloud-Speichern bringe jedenfalls Acronis-Technik ein Enterprise-Feature in die Reichweite der Endverbraucher: Das Online Full Image Backup", so Beloussov.  Backup für Facebook und iCloud
Backups ihrer Daten brauchten heute alle Anwender, die ein soziales Netzwerk nutzten. Habe etwas Facebook das Profil eines Anwenders gesperrt, könne es Monate dauern, um nach viel Streitigkeiten wieder darauf zugreifen zu können – wenn überhaupt. Abhilfe schaffe auch in diesem Fall die neue Acronis-Software, die in der Lage sei, ein Backup sämtlicher Profildaten eines Users zu ziehen und es wahlweise im Original-Profil oder in einem neuen Profil (sollte das alte noch gesperrt sein) zu restoren. Ferner erlaube die Acronis-Software es den Anwendern, alle gesicherten Dateien von einem Mobilgerät aus zu sichten. Mehr noch: Das Backup lasse sich gegen Zugriffe durch Dritte zusätzlich absichern, und zwar zeitgemäß mit dem Advanced Encryption Standard mit einer Schlüssellänge von 256 Bit (AES-256). Selbiges gelte sogar für Daten in Apples iCloud. Doch die Verschlüsselung von Daten nutze dann nichts mehr, wenn Ransomware denjenigen Rechner infiziert hat, der eine Zugriffsberechtigung auf das Backup habe! Selbt da könne die neue Software helfen: Durch einen heuristischen Detektions-Mechanismus, der selbst Zero-Day-Attacken abwehren könne. Da betreibt Acronis offensichtlich ein eigenes Forensik-Team, denn Laut Beloussov stehe man in engem Kontakt zu Ransomware-Programmieren: "My team is intimately in contact with the underworld of ransomware writers", so Beloussov. Das Ergebnis sei die Acronis Active Protection, Bestandteil der neuen Software Suite. Die könne einen Ransomware-Angriff auf den Client entdecken und Maßnahmen einleiten. Das verkürze die Zeit für die Wiederherstellung von Daten, die sogenannte Restore Time  ganz erheblich. Und wie will Acronis sicherstellen, dass die in einem Backup gespeicherten Dateien auch den die Originaldaten enthalten? Durch digitale Signaturen! Denn eine Verschlüsselung sei nur dann sicher, wenn auch die Schlüssel sicher verwahrt seien. Abhilfe schaffe ein System digitaler Signaturen. Dann lasse sich das Original oder Kopien des Originals eindeutig identifizieren. Block chain wird die dabei eingesetzte Technik genannt, vielen bekannt durch das im Darknet so beliebte Online-Bezahlsystem Bitcoin. Wie in jedem anderen andere Bezahlsystem muss auch Bitcoin unerlaubte Kopien von Wert-Tokens (Multispending) verhindern oder unerlaubte Kopien als solche erkennen (und aus dem Verkehr ziehen) können. Die Block-Chain-Technik stelle sicher, dass eine Datei unveränderlich bleibe, respektive, dass jede Änderung sofort zu erkennen sei.  Acronis betreibt dazu einen elektronischen Notar-Dienst, mit dem Anwender ihre zu schützenden Dateien mit einer digitalen Signatur versehen lassen können. Die Acronis-Software könne dann jederzeit ermitteln, ob eine Datei (im Backup) verändert wurde, oder ob sie dem Original entspreche. Dazu müsse die Datei aber gar nicht als Ganzes auf einem Acronis-Server abgelegt sein, sondern lediglich deren Hash-Wert. Auch das beschleunige den Erkennens- und Wiederherstellungs-Prozess ganz erheblich, so Beloussov. Schutz vor Fake News durch digitale Unterschrift(en)
Zusätzlich zur Zertifizierung von Daten mit Acronis Notary bietet Acronis eine weitere Methode zur Authentifizierung von Dateien an: ASign. "Users want to sign with hand", erklärt Beloussov. Also könne die Acronis-Software sogar Unterschriften zum Signieren von Dateien verwenden, die Anwender zu Papier gebracht und eingescannt oder direkt auf ihrem Touch-Device hinterlegt haben. Auch das Gegenzeichnen mit Unterschriften mehrerer Personen sei in ASign implementiert. Dabei arbeitet die Acronis-Lösung vollkommen unabhängig von DocuSign und dazu weitaus preiswerter.  Es folgte ein Fake-News-Hinweis an Journalisten: Acronis Notary ließe sich dazu verwenden, von Journalisten geschriebene News-Dokumente zu signieren und vor Verfälschung (faking) schützen... Produktvorführung in Echtzeit
Weil er seinen Flug verpasst hatte, war zur Vorführung der neuen Nikolay Grebennikov per Skype Features zur Pressekonferenz zugeschaltet worden. Im ersten Teil seiner Demonstration zeigte er das Speichern und Wiederherstellen eines Facebook-Profils, das Fotos, Videos und die Timeline umfasste.  Unklar blieb, ob Facebook-Follower auch dann noch vorhanden sind, wenn der Restore-Prozess einen neuen Account erfolgte.   Im zweiten Teil zeigte Grebennikov das Backup eines Mac-Clients in die Acronis Cloud. Er betonte, dass insbesondere Anwender aus Deutschland recht recht unwohl sei mit dem Backup in Apples iCloud.  Der dritte Teil der Produktvorführung galt der File Notarization: Dazu brauche eine Datei lediglich unter der Acronis-Oberfläche (im Browser) für die "notarielle Beglaubigung" durch den Acronis-Dienst markiert zu werden. Sobald der Acronis-Notardienst diese Datei erfasst hat, generiert er automatisch ein PDF-Dokument, das sämtliche Veränderungen an der Datei dokumentiert.  Im vierten Teil schließlich demonstrierte die Funktionsweise der Ransonware-Erkennung. Die Acronis-Software untersuche Kernel-Mode-Treiber des Betriebssytems sowie vorhandene Dokument-, Tabellenkalkulations- und PDF-Dateien auf Veränderungen. Ihre Erkenntnisse trage sie in einer Heuristik-Datenbank zusammen, die daraus eine White-List erzeuge. Jede Datei, die nicht in dieser Liste stehe, gelte als suspekt. Zur Demo des Echtzeit-Schutzes ließ Grebennikov die Ransomware "Derialock" auf seinen Rechner los. Die Acronis-Software erkannte den Eindringling und verhinderte eine Infektion. Dann schaltete Grebennikov den Acronis-Ransomware-Schutz aus... Preise und Verfügbarkeit
Acronis True Image 2017 New Generation ist eine Premium-Lizenz der Backup-Lösung Acronis True Image. Bestandskunden von Acronis True Image 2017 erhalten die neue Version als kostenfreies Upgrade. Neukunden können aus verschiedene Preismodelle wählen, zum Beispiel

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

IoT-tauglicher Flash-Speicher von Adesto 22 Nov 2016 4:06 AM (8 years ago)

München – Wer einen Blick in die Zukunft der technischen Produkte werfen will, kommt an einem Besuch der electronica nicht vorbei. Denn mit einem Marktvolumen von mehr als 3,5 Billionen Euro zählt die Elektronikindustrie global zu den wichtigsten Wirtschaftszweigen. Auf dieser Messe zeigt die Industrie also jene Bauteile, aus denen die Produkte der Zukunft bestehen, seien es e-Bikes, Elektroautos, Wechselrichter, Motoren – oder eben Speicherbausteine für das Internet der Dinge (IoT).  Zu den interessantesten Neuigkeiten zählte die neue Flash-Speicher-Technik der Firma Adesto: EcoXiP. Adesto hat sich der schon seit Jahren angebotenen Flash-Speicher-Technik angenommen und herausgefunden, wie sich diese auch als Solid-State-Speicher bekannten Module für nicht-flüchtigen, elektronischen Speicher zum einen leistungsfähiger und zum anderen energie-effizienter aufbauen lassen. Denn das Internet-of-things verlässt sich darauf, dass immer kleinere Endgeräte, in immer größerer Stückzahl miteinander vernetzt werden können – doch ohne Strom keine Kommunikation und ohne Kommunikationsfähigkeit keine Netzwerkverbindung. Mit der Methode Execute in Place (XiP) lasen sich Programme direkt im Speicher ausführen, ohne sie vorher erst vom Flash- in den Arbeitsspeicher laden zu müssen. Das vereinfacht Hardware-Entwicklern das Design, verringert die Anzahl der Bauteile und spart so Platz,auch bei den Verbindungen der Bauteile untereinander. Im Gespräch mit dem tng berichtete CEO Gideo Intrater, dass EcoXiP die Prozessorleistung mehr als verdoppeln könne und den Stromverbrauch sowie die Systemkosten im Vergleich zu Standard Serial Peripheral Interface (SPI) Bausteinen deutlich senken würde – und bewies das mit einem Messaufbau auf Basis zweier NXP--Experimentier-Boards mit angeschlossener Messtechnik. Das Internet of Things- (IoT) und eingebettete Geräte (embedded devices) müssen intelligent genug sein, um Datenverarbeitung lokal bewältigen zu können. Das Mehr an Funktionalität erfordert einen höheren Grad an Komplexität, etwa beim Abarbeiten neuer Wireless-Protokoll-Stacks und von fortschrittlicher Software. Deshalb benötigen solche Geräte deutlich mehr Programmspeicher als beispielsweise günstige On-Chip-Lösungen, Speichergrößen, die sich mit Embedded-Flash- oder SRAM-Zellen nicht implementieren lassen. Ferner müssen sie deutlich als die kleinsten verfügbaren DRAMs sein.  Diesen Anforderungen stellt sich Adesto mit einer innovativen Speicher- und Protokoll-Architektur, die die Nachteile von On-Chip-Embedded-Flash oder SRAM überwindet. Anders als beim Embedded-Flash-Speicher läßt sich in XiP eine Mikrocontrollerunit (MCU) mit einer externen XiP-Lösung implementieren. Die Nutzung der neuester Prozesstechnik in der Herstellung verringert einerseits den Stromverbrauch, erlaubt höhere Taktfrequenzen und führt zu geringeren Systemkosten. Während ein Embedded-SRAM-System immer "unter Strom stehen" muss, kann ein XiP-Flash-Gerät ausgeschaltet werden. Darüber hinaus bietet EcoXiP Designern die Flexibilität, Speicherkapazitäten zu erhöhen, wenn ihre Kapazitäten steigen. Aber auch bisherige State-of-the-Art XiP-Lösungen leiden unter einem Mangel an Leistung bei hohem Stromverbrauch und erhöhten Systemkosten. EcoXiP vereint alle Vorteile der traditionellen XiP-Systeme gegenüber On-Chip-Speicherlösungen. Die Vorteile von EcoXiP umfassen:

SIP-Hostcontroller für EcoXiP sind bei IP-Partnern von Adesto erhältlich, darunter Mobiveil und Synopsys. 

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

Rubrik Picks up the Pieces 11 Oct 2016 5:07 AM (8 years ago)

München - Wer Systeme von Grund auf neu entwickelt, muss sich nicht mit Althergebrachetm, Vorgängerversionen oder Produktpflege herumschlagen, sinder kann sich ganz auf das Wesentliche konzentrieren. Das mögen sich die vier Gründer der Firma Rubrik gesagt haben, als sie sich 2014 aufgemacht hatten, um eine neue Lösung für ein denkbar altes Problem der Datenverarbeitung, genauer: eine Reihe alter Probleme, zu finden. Finden, das bedeutet, Vorhandenes aufzusammeln – wie im alten Motown-Song "Pick up the Pieces" – und zu etwas Neuem, Besserem zusammenzufügen. Mit ihrem Background konnten die vier Gründungsmitglieder ja sicherlich gut abschätzen, wohin sich die IT entwickeln würde:

Weil die Datenverarbeitung und -Speicherung nur noch teilweise oder gar nicht mehr "on Premise", also in Rechenzentren vor Ort, erfolgt, bietet Rurik größeren Unternehmen Lösungen für deren Cloud-Daten-Management, mit denen sie die Sicherung, die Verwaltung und den Schutz ihrer Daten beschleunigen und vereinfachen können, unabhängig von ihrem physischem respektive geographischem Standort.

We built the world’s first cloud data management platform that delivers data protection, search, analytics, compliance, and copy data management to hybrid cloud enterprises. To democratize public cloud for all enterprises, unlock the architecture to manage data at scale – anywhere, anytime.

Im Gespräch mit Tom's Networking predigte der Chief Technology Evangelist Chris Wahl aus Rubriks Glaubensbekenntnis: "Wir glauben an zwei Trends", sagte er. "Erstens an die Public Cloud und zweitens an den Backup- und Recovery-Markt." Daher habe Rubrik einen Software-Layer entwickelt, der diese Aufgaben Job- und Policy-basiert angehe und dabei auf ein weiteres, wesentliches Stück Internet-Architekktur aufsetzt, den Representional State Transfer, kurz: REST. Statt neues zu erfinden, nutzt Rubrik also ein Programmierparadigma für verteilte Systeme, insbesondere für Webservices. REST stellt eine Abstraktion der Struktur und des Verhaltens des World Wide Web dar und zielt auf einen Architekturstil, der die Anforderungen des modernen Web besser darstellt, insbesondere durch eine einheitliche Schnittstelle für die vielfältigen Aufgaben in den Bereichen Management, Backup, Recovery und Analyse. Faktisch trenne die Rubrik-Lösung drei Bereiche voneinander ab:  Laut Chris Wahl lasse sich die Rubrik-Lösung auf einem einem bereits laufenden System mit 10-GbE-Netzwerk-Infrastruktur innerhalb einer Stunde vollständig zum Laufen bringen. Die Minimalanforderung seien vier Nodes auf zwei Rechnern, dann lasse sich die Rubrik-Lösung beliebig weiter skalieren. So sei es gelungen, bereits an rund ein Siebtel der Fortune-50-Unternehmen zu verkaufen. Zu den wesentlichen Vorzügen der Rurik-Lösung zählt das so genannte Test Device für die Datenanalyse: Dank schlauer Indexierung (in einem eigenen Dateisystem) gelinge es, innerhalb 30 Sekunden beliebige Datenmengen aus einem Backup zu extrahieren und für Analysezwecke bereit zu stellen – revisionssicher, weil die Original-Daten nicht angefasst werden müssten. Für die Sicherheit sei ebenfalls gesorgt: Alle Daten würden Ende-zu-Ende verschlüsselt übertragen und gespeichert, die Indexierung erfasse ausschließlich nicht-verschlüsselte Dateinamen ("We're not able to see encrypted file names"), nicht jedoch Dateiinhalte ("We don't dive into files.") Das System biete eine globale Index-Suche und verhalte sich wie Google-Search. Nationale Unterschiede bei Regelungen zu Datenschutz und -Speicherung ließen sich durch das Rollen-basierte Management jederzeit abbilden. Dazu Wahl: "This is, whrere the fun is! Because our system is policy based." Daher ließen sich Policies abhängig von der Geolokation einpflegen, also festlegen, welche Daten wo gespeichert, wohin gebackupt und wohin recovert werden dürfen.  Die Rubrik-Lösung "könne jedes Dateiformat" lesen, speichere aber in einem eigenen Dateiformat. Daher komme sie mit einem zehntel des ansonsten erforderlichen Platzes aus: Statt 40 Höheneinheiten (also ein ko,mplettes Server-Rack) benötige man nur vier. Daraus resultiere ferner eine Energieersparnis von 90 Prozent. Weitere Detail erläutert CTE Chris Wahl in seinem eigenen Netzwerk-Blog.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

München – Die künstliche Photosynthese beschreibt Wikipedia als "chemischen Prozess, bei dem mit Hilfe von Sonnenlicht chemische Produkte hergestellt werden." In Zeiten, in denen die Industrie- und Schwellenländer nach Wegen suchen, ihr vornehmlich öl- und kohlebefeuertes Wachstum umweltverträglicher zu gestalten, klingt das Versprechen, "aus Sonnenlicht, Kohlendioxid und Wasser Produkte wie Brennstoffe, Chemikalien oder Kohlehydrate und Sauerstoff" sehr verlockend, um der CO2-Falle zu entgehen und Klimaziele einhalten zu können. Das ika -- Institut für Kraftfahrzeuge / RWTH Aachen schreibt im Abschlussbericht 113210 aus dem Dezember 2012 unter dem Titel "CO2-Reduzierungspotenzaile bei PKW bis 2020: "Seit dem 1. Januar 2012 ist die schrittweise Begrenzung der CO2-Emissionen für PKW im Kraft. Bereits ab Januar 2015 sollen die durchschnittlichen CO2-Emissionen der europäischen Neuwagenflotte im Durchschnitt auf 130 g CO2/km reduziert werden. Für das Jahr 2020 ist ein Flottenzielwert in Höhe von 95 g CO2/km definiert." Die größten CO2-Emittenten in der Europäischen Union sind  Die EU hatte sich bereit 1997 im globalen Abkommen des Kyoto-Protokolls verpflichtet, die durchschnittlichen Treibhausgasemissionen der Jahr 2008 bis 2012 gegenüber Basisjahr 1990 um 8 Prozent zu reduzieren, unterschiedlich je Nation, Deutschland minus 21 Prozent. Laut Weißbuch der Europäischen Komission soll der weltweite Temperaturanstieg unter zwei Grad Celsius liegen.  Unter dem Motto "tomorrow starts today" verfolgt Thyssen-Krupp mit der Initiative Carbon2Chem das Ziel, Hüttengase aus der Stahlproduktion als Ausgangsstoffe für chemische Produkte zu nutzen. Dabei soll Überschussstrom aus erneuerbaren Energien als Energiequelle genutzt werden. Bislang wurden Hüttengase lediglich thermisch verwertet, also verbrannt. Hüttengas setzt sich zusammen aus Aus Stickstoff und Wasserstoff lässt sich Ammoniak herstellen. Ammoniak lässt sich im Haber-Bosch Verfahren (seit 1910 bekannt) zu Mineraldünger umsetzen. Die chemische Reaktion verläuft bei einem Druck von 200 bis 300 bar und einer Temperatur von 350 bis 450 Grad Celsius ab. Ein Katalysator beschleunigt die Umwandlung. Kohlenstoff aus Kohlenmonoxid und Kohlendioxid, sowie Wasserstoff bilden die Grundlage für Herstellung von Methanol. Bislang wird aber der für die Methanol-Herstellung benötigte Kohlenstoff vorwiegend aus fossilen Brennstoffen wie Erdgas gewonnen. Anders beim exothermen Sabatier-Prozess: Er setzt Kohlenmonoxid respektive Kohlendioxid und Wasserstoff in Methan und Wasser um, s.a. Wikipedia Sabatier-Prozess. Da bekannt ist, dass in der Technisch Universität München einer der bedeutendsten Protagonisten der künstlichen Photosynthese forscht, hatte der Autor als Vorsitzender der technisch-literarischen Journalistenvereinigung, dem TELI e.V., zusammen mit Marc Dennis Weitze von der acatech Herrn Professor Rieger in Garching aufgesucht um ihn für einen Vortrag im Rahmen der Veranstaltungsreihe "acatech am Dienstag" zu gewinnen. Zum Auftakt am 27. Juli 2017 verwies Moderator Arno Kral auf eine Fiktion des Science-Fiction-Autors Neal Stephenson. Der hatte im seinem 1995 in den USA und 1996 in Deutschland bei Goldmann erschienenen Science-Fiction-Roman "Diamond Age – Die  Grenzwelt" die Utopie entworfen, Nanotechnologie flächendeckend für die Versorgung der Bevölkerung einzusetzen: Materie-Compiler, eine Art auf molekularer Ebene arbeitende 3D-Drucker, synthetisieren Güter des täglichen Bedarfs, etwa Kleidung und Nahrung – und desintegrieren sie, ganz im Sinne einer Kreislaufwirtschaft, nach Gebrauch wieder sortenrein. Versorgt werden diese Materie-Compiler aus Feedern, die in Ergänzung zu heute üblichen Strom- und Wasserleitungen für die Produktion benötigte Substanzen in die Haushalte führen. "Wirtschaftliche Bedeutung haben nur noch Eigentumsrechte an den Bauplänen (Informationen für die Kompilierung der Güter), sowie die Infrastruktur, bestehend aus so genannten Sources, Fabriken für atomare Bausteine und gleichzeitig Kontrollinstanzen für die Materie-Compiler, und Feeder-Leitungen, um die Compiler mit Material zu versorgen", schreibt Wikipedia über Stephensons Roman. Den Titel Diamond Age, also Diamantenzeitalter, hatte der Autor gewählt, um klar zu stellen, dass Kohlenstoff, etwa in Form von CO2, so reichlich zur Verfügung stehe, um daraus nahezu alles, wofür heute etwa Glas zum Einsatz kommt, künftig aus Diamant herzustellen. Doch mit Kohlenstoff, insbesondere solchem, der das Klima schädigt, lässt sich weit mehr anfangen, als ihn zu Diamantglas zu verarbeiten.  Mit der künstlichen Photosynthese schicken sich Wissenschaft und Technik nämlich an, zumindest das CO2 aus Industrieabgasen in ein Fließgleichgewicht zu überführen, den Großteil der Emissionen aus der Kohleverbrennung also wieder zu verwerten und damit die Klimaziele produktiver zu erreichen, als etwa mit der Speicherung von CO2 unter Tage. Darüber hinaus weist die künstliche Photosynthese einen Weg auf, den enormen Bedarf der Industrie an Wasserstoff durch photokatalytische Prozesse großtechnisch umweltfreundlicher als bisher zu erzeugen. Kohlendioxid als Kohlenstoffquelle für die Industrie Rieger zeigte einige der Gebiete auf, in denen die chemische Industrie bereits beträchtliche Umsätze realisiert. Dazu zählen die Synthese von jährlich an die 100 Millionen Tonnen Harnstoff nach dem Haber-Bosch-Verfahren. Harnstoff ist ein zentraler Rohstoff für die Herstellung von Düngemitteln und Kosmetik-Produkten. Der anhaltende Mehrverbrauch von Kunststoffen mit Kohlenstoff-Anteilen mit Zuwachsraten von vier  bis achteinhalb Prozent im Jahr 2015 veranlasste Professor Rieger, die Frage aufzuwerfen, ob CO2 als die neue Kohlenstoffquelle betrachtet werden könne. Zwar trage Deutschland mit 900 Millionen Tonnen nur rund drei Prozent Gases in die Atmosphäre ein, könne jedoch mit der technischen Verwertung dieses klimaschädlichen Gases dazu beitragen, den Anstieg der CO2-Konzentration in der Luft auf zuletzt im Jahr 2015 gut 400 ppm (Parts per Million) wieder zu senken. Welch prächtige Aussichten! Lässt sich durch den Einsatz von Prozesstechnik und Überschüssen aus erneuerbaren Energiequellen tatsächlich klimaschädliches Kohlendioxids zu Diesel oder Benzin zurück verwandeln?  Zum ersten Mal zählen sogar Kunststoffe zu den Rohstoffen, die sich ohne den Einsatz von Rohöl aus Kohlendioxid synthetisieren ließen. Solche Kunststoffe fänden in Verbrauchsartikeln Verwendung, etwa Gehäusen für Haushalts-Produkte, Agrarfolien oder bei Beschichtungsmaterialien für Papier und für Taschen. Vorteil der synthetischen Erzeugung solcher Kunststoffe sei das Fehlen von Nebenprodukten.  Als Beispiel für die gelungene Umsetzung der Kunststoff-Synthese aus CO2 zeigte Rieger den dunkelblauen Deckel eines Staubsaugers, Endprodukt eines Prozesses, an dem die Firmen Siemens und BASF sowie das BMWi beteiligt gewesen seien. Kohlendioxid zu Plastik machen geht also schon heute, ist aber noch etwas teuer: So stellte der TUM-Forscher die Frage, wie denn den Verbrauchern zu vermitteln sei, 20 Euro mehr für einen Haushalts-Staubsauger zu bezahlen, dessen Kunststoffgehäuse nicht  mehr aus der Verarbeitung der Importware Erdöl, sondern durch künstliche Photosynthese des lokal vorhandenen Kohlendioxids produziert werde.  Die steigende Nachfrage nach Kohlefasern sei ebenfalls ein starker Treiber der künstlichen Photosynthese: In der Diskussion stehe nach wie vor der Einsatz von Methanol als Treibstoff, hergestellt ebenfalls durch Reduktion von CO2. Darüberhinaus läßt sich auch konventioneller KfZ-Treibstoff aus CO2 herstellen: Schon seit 1925 ist das Fischer-Tropsch-Verfahren bekannt, die Kohleverflüssigung. Dabei wird ein Gemisch aus Kohlenmonoxid und Wasserstoff, so genanntes Sysnthesegas, in eine Reihe gasförmiger und flüssiger Kohlenwasserstoffe um, darunter Benzin. Dieses Verfahren werde laut Rieger bereits massiv in den USA und in Südamerika eingesetzt. Durch hoch entwickelte Katalysatoren auf Basis der leider seltenen Elemente Rhenium und Ruthenium sei die Herstellung von Kohlenwasserstoffen jedoch auch durch künstliche Photosynthese technisch in Reichweite.  Die Wasserstoffindustrie zählt zu den größten CO2-Erzeugern Längst schon ist Wasserstoff als Energieträger und als Reaktionsprodukt unverzichtbar. Doch der größte Anteil dieses Gases wird heute industriell durch Steam-Reforming gewonnen – wobei jedoch Unmengen CO2 freigesetzt werden! Daher suche die Welt seit 10 bis 15 Jahren nach photokatalytischen Prozessen für die Bereitstellung des von der chemischen Industrie so dringend benötigten Wasserstoffes. Da es sich beim CO2-Molekül um eine sehr stabile chemische Verbindung handele, sei zwar viel Energie erforderlich, es wieder aufzuspalten. Die aber stünde in Form von Überschusselektrizität aus der Produktion erneuerbarer Energien in großem Umfang preiswert zur Verfügung. Die Power-to-Gas-Technik, die im Wesentlichen Wasser in seine Bestandteile Wasserstoff und Sauerstoff aufspaltet (Elektrolyse), liefert den Rohstoff Wasserstoff, um aus Kohlendioxid mit hoher Effizienz Methan zu erzeugen, ein Energieträger, der den Hauptbestandteil des Import-Artikels Erdgas ausmacht.  Dieser Methanisierung genannte Prozess setzt „wahnsinnig viel Energie“ in Form von Wärme frei, was in der Vergangenheit für die eingesetzten Katalysatoren sehr problematisch gewesen sein. Durch ein effizientes Kühlsystem sei diese Klippe aber inzwischen umschifft. Eine Versuchsanlage von MAN in der Deggendorfer Werft beweise, dass die Sabtier-Reaktion mit Katalysatoren von Clariant (ehemals Süd-Chemie) Methan kontinuierlich mit einem Wirkungsgrad von 98 Prozent erzeugen könne. Zwischenresultat: Der Katalysator von Clariant funktioniert, der MAN-Reaktor funktioniert.  Der Energieträger Elektrizität lässt sich schlecht speichern und nur unter großen Verlusten über weite Strecken transportieren. Besser sähe es aus, wenn Strom zur Erzeugung künstlichen Erdgases eingesetzt würde. Erdgas lässt sich zum einen leicht im vorhandenen Erdgasleitungsnetz über große Strecken transportieren, zum anderen in bereits vorhandenen Anlagen (darunter ausgebeutete Salzstöcken) speichern. So kann es die Erzeugung von Strom, Wärme und Chemikalien sowie für die Mobilität bereit stehen. Woher das CO2 für die industrielle Nachfrage kommen soll, will der Project-Cluster iC4 – Integrated Carbon Capture, Conversion & Cycling zeigen. Zu den größten Verursachern von CO2-Einträgen in die Atmosphäre zählt die Baustoff-Industrie. Doch unter Umgebungsbedingungen lassen sich mit Licht als Energiequelle CO2 und Wasser zu CH3OH, also Methanol umsetzen – und daraus könnten zum einen Brennstoffzellen die elektrische Energie für Elektro-Motoren machen, zum anderen lassen sich Verbrennungsmotoren ebenfalls damit antreiben.  Technisch machbar aber ohne gesellschaftlichen Konsens nicht wirtschaftlich  Die künstliche Photosynthese erzielt weitaus höhere Wirkungsgrade als die natürliche, weil sie mit Strom (Elektronen) anstelle von Licht (Photonen) arbeitet. In der Natur fängt das das Chlorophyll-Molekül die Lichtenergie ein um damit Wasser und Kohlendioxid in Glukose (Zucker) und Sauerstoff umzusetzen. Dabei wir aber lediglich ein Prozent der Energie aus Sonnenlicht in der erzeugten Biomasse gespeichert. Laut Rieger können moderne Katalysatoren den Wirkungsgrad auf 80 Prozent enorm steigern -- in erster Line deshalb, weil die komplexen natürlichen Moleküle in den Chloroplasten alle 20 Minuten erneuert werden müssten.     Die künstliche Photosynthese ist also wissenschaftlich begründet und technisch umsetzbar. Doch laut Rieger ziere sich die gewinnorientierte Industrie, das unternehmerische Risiko für einen massiven Einstieg in die künstliche Photosynthese zu tragen. Nur gesamtgesellschaftliche Anstrengungen könnten eine Änderung des bequemen, import-orientierten Status-quo aufbrechen und zukunftsweisende Technologien in die Welt setzen.  Anreizmodelle seien erforderlich, um wie bei der Etablierung der erneuerbaren Energien, die künstliche Photosynthese voran zu treiben. Technisch sei die Umsetzung bald möglich, auch wenn die Utopie eines Neal Stephenson noch sehr weit von ihrer Realisierung entfernt sei. Die Einführung der zukunftsweisenden Technik der künstlichen Photosynthese erfordere die Bestellung des politischen Umfeldes und einen gesellschaftlicher Konsens sowie Investitionen der öffentlichen Hand. Nur so sei die Integration der künstlichen Photosynthese in die bestehende Industrielandschaft machbar.   „Neue Energien respektive Treib- und Rohstoffe, haben einen Preis, den wir zahlen müssen, um unseren Wohlstand zu erhalten“, konstatierte Professor Rieger. Es gelte, Kommunikationsprobleme zu lösen – beispielsweise zwischen der Industrie als Abnehmer der synthetisch erzeugten Treib- und Rohstoffe und der Forschung.  Die wissenschaftlichen Grundlagen reichen heute schon aus, um technisch Kraft- und Rohstoffe in nennenswertem Umfang aus Licht und Luft erzeugen zu können. Bürger und ihre Repräsentanten, die Politiker, sollten verstehen, dass sie damit drei Ziele erreichbar wären: Denn Professor Rieger argumentiert: „Die Technologie-Führerschaft, die wir in diesem Bereich erlangt haben, sollten wir nicht leichtfertig aus der Hand geben.“ Die Idee dezentraler Systeme könnte der zögerlichen Industrie auf die Sprünge helfen, wie bei den erneuerbaren unter Beweis gestellt: Biogas-Anlagen erzeugen zu etwa gleichen Teilen CO2 und Methan. Dann fände im ländlichen Raum die natürliche Photosynthese zu ihrem künstlichen Gegenstück – dort, wo schon die Vision des Umstiegs auf erneuerbaren Energien ihre dezentrale Realisierung gefunden hat. Hoffen wir also, dass nicht erst Kriegswirtschaft erzwingen muss, was mit gesellschaftlichem Konsens und gewissen politischen Leitplanken ohne Not heute schon machbar wäre. Das Aufkommen an Android-Malware ist im Zeitraum von 2013 bis 2015 um den Faktor 3 gestiegen, das Qachstum binnen eines Jahres liegt bei über 80 Prozent. Und selbst die Apple-Betriebssysteme sind mittlerweile nicht mehr vor Malware sicher. Das jährliche Wachstum hat 2015 hier bereits den Faktor 10 erreicht. Sicherheits-Suiten müssen heutzutage viel mehr als nur den stationären PC zuhause oder im Büro absichern. Spätestens seit Smartphones auch in den Arbeitsalltag Einzug gehalten haben, sind sie auch ein Einfallstor für Malware und Attacken auf interne Systeme. Dem haben die meisten Anbieter bereits mit Kombi-Lösungen für stationäre und mobile Geräte Rechnung getragen. Intel Security - ehemals McAfee - hat bereits 2014 die üblichen Suiten um eine "Mobile Security" ergänzt, die Geräte-übergreifend Sicherheitsfunktionen anbietet - egal ob für PC, Mac, Smartphone, Tablet oder neuerdings sogar teilweise die smarten Uhren. Ein Trend der spätestens mit den Uhren mit unabhängiger SIM dringend erforderlich ist. McAfee Innovations Personal Safety
Im Rahmen der McAfee Innovations zeigen die Labore von Intel Security, welche Funktionen für weitere Versionen der Mobile Security zu erwarten sind und nutzt diese App-Familie gleichzeitg zum Beta-Test dieser Optionen. Eines dieser neuen Feature ist McAfee Personal Safety. Die App hat weniger mit Sicherheit vor Malware oder anderen Attacken aus dem Netz zu tun, als vielmehr mit realer Sicherheit im alltäglichen Leben. Der Nutzer kann in der App Notfallkontakte hinterlegen, die über verschiedene Apps oder per Telefon alarmiert werden können, wenn er den Panik-Button auslöst. Gleichzeitig wird auch die aktuelle Position an den Notfallkontakt übermittelt. Wer oft durch unsichere Gegenden oder spä nachts unterwegs ist, kann zudem einen Anderen bitten, den Heimweg auf der Karte mitzuverfolgen. Dazu wird dem Beobachtenden ständig die aktuelle Position auf einer Karte gezeigt und er kann bei unerwarteten Abweichungen oder auffällig langen Aufenthalten schnell reagieren. Daneben lässt sich die App durchaus auch noch nutzen, um nicht zu verpassen, wenn Freunde / Familie im Umkreis unterwegs sind. So ist dann manches spontane Treffen schnell organisiert - oder ggf. auch verhindert. McAfee Innovations Financial App Guard
Finanztransaktionen gehören zu den kritischsten Anwendungen, die man über das Smartphone abwickeln kann. Da aber inzwischen selbst die Banken den Kunden per App das Überweisen mit dem einfachen TAN-Verfahren über ein Gerät ermöglichen, ist es umso wichtiger, hier einen Schutz außen herum zu legen. Mit Financial App Guard werden Finanz-Apps großteils automatisch erkannt und gezielt geschützt. Dabei geht der Schutz über die jeweilige App noch hinaus: Selbst das WLAN, in dem man sich während Transaktionen befindet wird auf eventuelle Angreifer / Mithörer hin überwacht. McAfee Innovations Safe Wi-Fi
Ebenfalls um das Thema WLAN-Sicherheit kümmert sich die App McAfee Safe Wi-Fi. Offene WLANs sind einerseits praktisch, weil der Nutzer so einiges an Datenvolumen und damit Kosten sparen kann. Doch sind solche Netze gleichzeitig ein Einfalls tor für Mithörer jeder Art, da die Kommunikation unverschlüsselt erfolgt. Die App ermöglicht es, auf Basis der Zell-Informationen aus dem GSM-Netz Kombinationen aus Location und erlaubtem Wi-Fi erstellen. Das WLAN auf dem Smartphone (oder Tablet mit SIM-Funktion) kann dabei auch gezielt nur dann automatisch aktiviert werden, wenn das Gerät innerhalb der Reichweite eines der erlaubten WLAN-Netze ist. Sobald das Smartphone oder Tablet dann das erlaubte Netz verlässt, schaltet die App das WLAN wieder aus. https://play.google.com/store/apps/developer?id=McAfee+%28Intel+Security%29München – In einer Umfrage unter Vertretern von 80 Unternehmen und Behörden in Deutschland aus dem Jahr 2016 hat der IT-Sicherheitsanbieter Palo Alto Networks herausgearbeitet, dass überraschenderweise 57 Prozent der Befragten die IT-Sicherheit in ihren Unternehmen mindestens als "gut" bewerten, während 10 Prozent der Befragten ihr Unternehmen nur zu 30 Prozent geschützt sehen und lediglich drei Prozent einen minimalen Schutzlevel angeben. Die Befragung hatte sich auf insgesamt neun verschiedene Branchen erstreckt, darunter Behörden, Medien, Kommunikationsanbieter, Finanzdienstleister, Versicherungen produzierendes Gewerbe, IT und Automobil-Hersteller sowie Transport- und Logistik-Unternehmen.  "Aus Branchensicht fühlen sich die Unternehmen im produzierenden Gewerbe sowie in der Telekommunikations- und Automobilbranche am sichersten. Im öffentlichen Dienst wurde der eigenen IT-Umgebung überwiegend 50-prozentiger Schutz attestiert", berichtet Palo Alto Networks. Das führt Thorsten Henning, Senior Systems Engineering Manager bei Palo Alto Networks, im Gespräch mit dem tng darauf zurück, weil in diesen Branchen die IT ohnenin ein Fokus-Thema sei. Beachtenswert bei dieser überwiegend positiven Einschätzung der eigenen Sicherheit sei jedoch der relativ geringe Anteil am IT-Budget, der für Sicherheit investiert werde. Jedes fünfte Unternehmen gebe lediglich fünf Prozent seines IT-Budgets für Sicherheit aus, und jedes vierte Unternehmen investiere nur ein Prozent der IT-Ausgaben in Cybersecurity. Lediglich sechs Prozent der Befragten hätten angegeben, 20 Prozent der IT-Aufwändungen in die Sicherheit zu stecken. Das veranlasst  Thorsten Henning zu einer Warnung: „Der Kontrast zwischen den überwiegend doch recht geringen Ausgaben für IT-Sicherheit und dem eigenen, wahrgenommenen Sicherheitslevel, ist beträchtlich. Dies bestätigt aber auch unsere Praxiserfahrung. Die tatsächliche Widerstandsfähigkeit der Umgebungen gegen Angriffe ist in vielen Fällen wesentlich geringer als die von den Betroffenen gefühlte Sicherheit.“ Der TI-Security-Anbieter Palo Alto Networks unterhält in Deutschland eine eigene Niederlassung. Sie war es, die durch die Umfrage dem global operierenden Mutterkonzern tiefere Einblicke in die IT-Sicherheitsbelange deutscher Behörden und Unternehmen eröffnen wollte. Denn der Kontrast zwischen denüberwiegend doch geringen Ausgaben für IT-Sicherheit und dem eigenen, selbst wahrgenommenen Sicherheitslevel seien laut Henning beträchtlich: "Dies bestätigt [...] unsere Praxiserfahrung. Die tatsächliche Widerstandsfähigkeit ist in vielen Fällen geringer als die von den Betroffenen gefühlte Sicherheit."  Schutzgeld für Opfer oft billiger als Gegenwehr
Das zeige sich, so Henning im tng-Gespräch, nirgendwo deutliche als bei der Bedrohung durch Ransomware. Solche auch Verschlüsselungs-, Krypto- oder Erpressungs-Trojaner machen Inhalte auf Datenträger durch Verschlüsselung so lange unzugänglich, bis die betroffen Unternehmen das geforderte Schutzgeld bezahlen. Im Gegenzug lieferten dann die Cyberkriminellen den Entschlüsselungscode, der die betroffenen Rechner wieder nutzbar macht. Laut Henning sind Ramsomware und Keylogger erst der Anfang einer neuen Bedrohungswelle, weil sie für Angreifer ein lukratives Geschäft darstellten. Der Aufwand für den Angreifer sei gering, das Risiko, entdeckt zu werden, niedrig und die Opfer könnten sich kaum wehren, so Henning. Eine Strafverfolgung sei deshalb so schwer, weil die Angreifer den Nachschlüssel im Tausch gegen eine oder eine halbe Einheit der Dark-Net-Währung Bitcoin übermittelten, so Henning, was gegenwärtig einem Betrag von 200 bis 500 Euro entspräche. Und weil das Einspielen von Backups oft mehrere Stunden bis hin zu mehreren Tagen dauere, Produktions-, Buchungs- oder Auslieferungs-Prozesse aber nicht so lange unterbrochen werden dürften, sei es in vielen Fällen billiger, zu zahlen. Klappen muss der Restore dann aber auch! "Ich kenne persönlich keinen Betroffenen, der das Problem mit einem Restore eines Backups hätte lösen können". so Henning. Und so lange Anwender immer noch auf E-Mail-Anhänge klicken würden, hätten die Angreifer leichtes Spiel.  Und weil man Anwenderinnen und Anwendern das Klicken auf Anhänge nicht austreiben könne, brauche es geeignete Abwehrmaßnahmen. Palo Alto Networks stelle der Cyber Thread Alliance, einem Zusammenschluss von Sicherheitsanbietern im Wesentlichen US-Amerikanischer Provenienz, eigene Analysen beispielsweise von befallenen Winword-Dateien zur Verfügung, damit alle zusammen in einer konzertierten Aktion gegen derart aufgespürte Bedrohungen vorgehen können.  Ransomware liegt zwar im Trend, IT-Umgebungen von Unternehmen und Behörden sind jedoch anderer Unbill ebenfalls ausgesetzt. Im Ranking der aktuell größten Bedrohungen der IT-Sicherheit liegt  das Fehlverhalten von Mitarbeitern auf Platz ein, Rang zwei stellen gezielten Attacken über das Internet dar, Phishing und Advanced Persistent Threats (APT) liegen auf Platz vier und Scareware auf Platz fünf. Lediglich hinteren Ränge bekleiden Bedrohungen wie Industriespionage, Social Engineering, Ransomware, Software-Bugs, mangelnde Transparenz, Drive By Exploits, Schwachstellen und App ID. In der jüngsten Umfrage wollte Palo Alto Networks ferner wissen, ob sich Unternehmen wegen ihres Standorts in Deutschland einer höheren oder niedrigeren Gefährdung ausgesetzt sehen als Unternehmen in anderen Ländern: Für etwas mehr als die Hälfte der Unternehmensvertreter beeinflusst der Standort in Deutschland die Bedrohungslage nicht, 16 Prozent der Befragten fühlen sich hierzulande sicherer, aber 15 Prozent sehen sich dadurch stärker gefährdet. Wer sind die Bösen?
Den Befragten zur Folge droht am meisten Gefahr von cyberkriminellen Vereinigungen, von eigenen Mitarbeitern und von Staaten respektive deren Geheimdiensten, wobei sich insbesondere die IT-Branche am meisten von organisierten Cyberverbrechern bedroht sieht.  Das im Dezember 2014 als Entwurf vorgelegte IT-Sicherheitsgesetz konnten 47 Prozent der Befragten gar nicht beurteilen, 41 Prozent der Befragten gaben an, einiges umstellen zu müssen, um dem Gesetz gerecht zu werden, während zehn Prozent der Befragten ihr Unternehmen als bereits gut darauf vorbereitet bezeichneten.  Dazu stelle Thorsten Henning fest: „Hier wird deutlich, dass noch viel zu tun ist, was die Prozesse und an vielen Stellen auch Investitionen betrifft. Es ist sicherlich effizienter die IT-Sicherheit modernen Ansprüchen anzupassen als im schlimmsten Fall hohe Schäden zu erleiden und Bußgelder zu bezahlen.“ Die Unternehmen seien jedoch skeptisch ob dessen Wirksamkeit, zumal sich nur zehn Prozent der Befragten davon überhaupt eine Verbesserung der Sicherheitslage versprechen, gut ein Drittel (36%) eine leichte und wiederum ein Drittel (33 Prozent) gar keine positiven Auswirkungen versprechen.  Bedrohung Cloud
Die Cloud betrachten hingegen die befragten Unternehmen als die größte Herausforderung, was die IT-Sicherheit anbelangt, auf den Plätzen folgen das "Internet of Everything", Mobilität, "Bring your Own x", Industrie 4.0 und Virtualisierung. Der Umfrage zur Folge geht für das produzierende Gewerbe die größte Gefahr von der Cloud aus. Viele Unternehmen sind folglich auf der Suche nach Sicherheitslösungen zur Kompensation der größten Schwachpunkte bestehender Systeme, als da wären: Viele Unternehmen betrachten ihre aktuelle IT-Absicherung als zu kleinteilig und kritisieren einen zu hohen Adminstrationsaufwand. Wohin die Reise also gehen muss, fasst Thorsten Henning abschließend zusammen: "Durch den häufigen Wildwuchs an kleinen Einzellösungen, die viel manuelle Mitarbeit von Menschen in Anspruch nehmen, werden Ressourcen verschwendet und Angriffsflächen geschafften. Der Bedarf an automatisierten und Plattform-basierten Lösungen wird durch diese Studie einmal mehr belegt."

Samsung S7 und Gear 360 zum Anfassen im Pop-up-Store in Frankfurt 22 Feb 2016 12:18 AM (9 years ago)

Barcelona - Bei der Vorstellund am Vorabend des Mobile World Congress wurden das S7, das S7 edge sowie die Gear 360 bereits von vielen überschwänglich begrüßt. Wie immer heißt die Devise: schneller, leichter, dünner, längere Akkulaufzeit und - wirklich beachtlich - spritzwasserfest. Im Rahmen einer wie immer fulminanten Show präsentierte Samsung neben den bereits erwarteten Smartphones S7 und S7 edge (jetzt neu mit beidseitig abgerundetem Diesplay) zudem die Gear 360, eine Kamera, die dank zweier Linsen einen Rundumblick ermöglicht. Damit wird die VR-Brille selbst für die interessant, die damit nicht spielen, sondern lieber Filme ansehen wollen. Passend dazu stand dann auch als Überraschungsgast Mark Zuckerberg von Facebook bei Samsung auf der Bühne und schwärmte von den neuen Möglichkeiten und seiner Plattform Facebook 360 Videos, für die solche Gadgets pädestiniert erscheinen. Samsung selbst bekräftigte seine Vision von der virtuellen Realität, indem die Vorstellung der neuen Geräte jeweils mit einem kleinen VR-Filmchen verknüpft war. Betrachtet man die dafür erforderliche Logistik für die Unmengen an Teilnehmern auf der Pressekonferenz, dan war das alleine technisch eine hervorragende Leistung. Preise gab es wie sooft keine, die Smartphones werden aber vermutlich zwischen 700 und 800 Euro kosten. Für die Gear 360 kursieren Preise von 300 bis 400 Euro. Wer die neuen Gerät und das VR-Erlebnis schon vorab erleben möchte, kann dies ab heute in Frankfurt tun. In Kooperation mit gomobile24.de hat Samsung heute im Herzen von Frankfurt einen Pop-up Store eröffnet. Ab dem 22. Februar können Besucher auf der Zeil 119 das brandneue Smartphone Galaxy S7 sowie das Galaxy S7 edge und die 360-Grad-Kamera Gear 360 live erleben. "Smartphones haben unser Leben radikal verändert und in Zukunft werden wir durch das Zusammenspiel mit Virtual Reality Technologie neue Möglichkeiten haben, zu kommunizieren, zu arbeiten, zu spielen und zu lernen. Mit unserem neuen Galaxy S7, der Gear 360 und unserer VR-Brille setzten wir jetzt schon neue Maßstäbe und ermöglichen ein neues holistisches Erlebnis", erklärt Martin Börner, Vice President Samsung Electronics GmbH. Wer möchte, kann sein persönliche Exemplare bereits vor Marktstart vorbestellen. Wer bis zum 5. März vorbestellt, bekommt eine VR-Brille kostenlos und das Gerät bereits bis zu drei Tage vor offiziellem Marktstart am 11. März zugeschickt. Die Eröffnung des Pop-up Stores stellt den Startschuss für den Ausbau eines neuen Samsung Flagship Stores dar, dessen Eröffnung für den Spätsommer diesen Jahres geplant ist. Auf mehreren Etagen werden dann erstmals alle Samsung Produktbereiche unter einem Dach erlebbar sein. Sie finden den Samsung Pop-up Store ab dem 22. Februar 2016 hier:
Samsung Pop-up Store, Zeil 119, 60313 Frankfurt am Main (Link zu Google Maps)

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

Tettnang – Der Valentinstag ist besonders in den letzten Jahren zunehmend zu einem Marketing-Objekt geworden. Der Tag, an dem es um viel Gefühl, aufregende Dates und vielleicht sogar um die große Liebe gehen soll, ist aber ebenso ein Hochtag für Cyberkriminelle, die es vor allem auf die Konten der Opfer abgesehen haben. Rund um den Valentinstag häufen sich Phishing-Angriffe, Mails mit Schadsoftware und andere Betrugsvarianten. Vom IT-Sicherheitsexperte Avira gibt es fünf praktische Tipps, mit denen sich Anwender besser vor Bedrohungen schützen können. Phishing, Trojaner und andere Betrugsversuche sind lästige und potenziell gefährliche Nebenwirkungen eines E-Mail-Kontos. Cyberkriminelle beschränken sich nicht auf den Valentinstag, sondern versuchen das ganze Jahr über unaufmerksame Opfer einzufangen. Im Vorfeld bestimmter Anlässe, Ereignisse oder Jahrestage laufen sie jedoch zu Hochform auf. Dieser Trend wird Event-Spam genannt und neben dem Muttertag, den großen US-Konsumtagen Black Friday und Cyber Monday gehört der Valentinstag (engl. Valentine’s Day) zu den Tagen, die Cyber-Gangster missbrauchen, um große Kasse zu machen. "Das erhöhte Risiko ist vor allem auf Phishing-Angriffe zurückzuführen. An normalen Tagen kalkulieren wir mit rund 500.000 bösartigen Links. Diese Zahl steigt rund um Feiertage oder besondere Ereignisse um ca. 10 Prozent bzw. 50.000 Links", so Alexander Vukcevic, Leiter des Avira Virus Lab. "Bis jetzt haben wir noch keine Malware mit Herz im Schadcode entdeckt – das ist aber durchaus möglich." Cyberkriminelle passen Phishing-E-Mails thematisch so an, dass sie zum Ereignis passen. Dabei funktioniert die Wortwahl im Text oft automatisiert und richtet sich nach Schlüsselwörtern, die bei den großen Suchmaschinen gerade im Trend liegen. "Ich kann mir gut vorstellen, dass es in den kommenden Tagen vor allem um Blumen gehen wird, denn die Kriminellen zielen vorrangig auf das Imitieren von Interessen und Suchabfragen realer Anwender ab", ergänzt Vukcevic. Egal ob die Cyberkriminellen mit roten Rosen gezielt hinter Kontodaten her sind, oder nur wirkungslose, hoffentlich ungefährliche Pillen verkaufen wollen: Mit ein paar simplen Verhaltensregeln können sich Anwender wirksam schützen, um Betrügern nicht in die Falle zu gehen:
  1. Zurückhaltung ist immer gut
    Eine E-Mail kostet nichts, ist (meistens) legal, kaum nachverfolgbar und sehr flexibel. In ihr lassen sich unerwünschte Produktwerbung für Schokolade in Herzform und Bitten um finanzielle Beihilfen genauso unterbringen, wie handfeste Schadsoftware. Wenn die Mail von einem unbekannten Absender kommt und irgendetwas verkaufen, verschenken oder gespendet haben möchte – am besten sofort löschen!
  2. Unbedingt technische Unterstützung nutzen
    Aktuelle Schutzsoftware wie von Avira (http://www.avira.com/de/avira-free-antivirus) gehört auf jedes Endgerät. Sie darf kostenlos sein [auch wenn der Anwender bei kostenloser Software meist direkt oder inidrekt mit seinen Daten bezahlt, Anm. d. Red.] und sollte Schadsoftware und Mails mit Phishing-Links in jedem Fall blockieren oder löschen. Integrierte Spam-Filter sind hilfreich aber nicht zu 100 Prozent sicher. Es ist für einen Algorithmus zunehmend schwer zu erkennen, ob es sich bei der Mail um einen abonnierten Newsletter oder Spam handelt. Selbst sprachlich sind diese Mails in den letzten Jahren immer besser und fehlerfreier geworden. Wenn die Mail durchgelassen wird, sollte Tipp Nummer 1 zur Anwendung kommen.
  3. Can’t buy me love
    Nur die Liebe zählt: Sobald Geld im Spiel ist, steigen die Chancen auf Betrug ins Unermessliche. Ein Beispiel ist die neue virtuelle Bekanntschaft einer Dating-Plattform, die so gern zu einem Treffen kommen würde, aber leider kein Geld für die Anreise hat. Um den Valentinstag herum nehmen Betrugsversuche dieser Art extrem zu. Daher gilt es zu prüfen, mit wem man sich trifft.
  4. Es gibt (leider) auch nichts geschenkt
    "Klicken Sie hier und erhalten Sie einen Gutschein für 25 Euro." Das kann tatsächlich in sehr seltenen Fällen ein legitimes Angebot sein, wenn es von einer bekannten Firma kommt. In der Regel ist es aber nur ein Versuch, das Opfer auf eine Webseite zu lenken, die Schadsoftware verteilt oder persönliche Daten abgreifen will. Häufig kann man schon an der Absenderadresse oder dem Betreff erkennen, dass die Mail eine Fälschung ist. Gut gemachte Versionen hingegen halten einem oberflächlichen Check stand. Eine aktuelle Schutzsoftware ist aber häufig in der Lage, solche Versuche abzufangen.
  5. Mobile Endgeräte als Zielscheibe
    Das Mantra unserer Zeit "Da gibt es eine App für" verliert auch am Valentinstag nicht an Bedeutung. Leider muss die App nicht immer legitim sein. Ob Grußkarten, Blind-Dating, Dinner-Reservierungen oder – der Klassiker – eine App, die endlich anzeigt, wer das eigene Facebook-Profil besucht hat: Am Valentinstag kommen sie alle wieder zum Einsatz. Eine App kann meist genauso viel Schaden anrichten, wie eine Phishing-Mail und bekommt durch die Online-Banking-Fähigkeit des Handys eine neue Dimension der Gefährlichkeit. Legitime App-Stores (z.B. https://safeapps.avira.com/de/) filtern offensichtliche Schadsoftware aus, aber es gibt keine Garantie dafür. Schutzsoftware wie Aviras Free Antivirus Android oder Free Antivirus iOS geben einen zusätzlichen Level an Sicherheit.
München – Die Email-Verschlüsselung für jedermann steht seit Jahren immer wieder im Fokus. Hintergrund ist bei den meisten, die Sorge um die Inhalte ihrer Emails. Zumindest im privaten Umfeld scheitert sie jedoch meist daran, dass ihre Einrichtung viel zu komplex ist. Unverschlüsselte Emails sind im Netzwerk wie eine Postkarte, die nahezu jeder ohne großen Aufwand mitlesen kann. Doch ein weiterer Aspekt ist ebenfalls wichtig: Email-Verschlüsselung stellt gleichzeitig sicher, dass eine Email auch wirklich von dem angezeigt Absender kommt: Der Versand erfolgt erst dann, wenn die Prüfung auf die korrekte Absenderadresse erfolgreich gewesen ist. In Zeiten verbreiteter Phishing-Attacken ist das nicht garantiert. Solche Attacke können systembedingte Lecks von Email-Protokollen ausnutzen, um Emails im Namen eines anderen zu versenden. Gängige Email-Clients machen es dem Nutzer oft sehr schwer, das zu erkennen, da der wahre Absender teilweise im (meist nicht angezeigten) Header der Email zu sehen ist. Beispielsweise zeigen Programme wie Microsoft Outlook dem Nutzer diesen Header lediglich in einer reduzierten Version an, die genau diese Informationen nicht mehr enthält. Wer dann mehr sehen will, muss sich die Schaltfläche "Nachrichtenoptionen" erst wieder in die Menüleiste holen. Einer der letzten großen Würfe zu dem Thema war die "Volksverschlüsselung" vom Fraunhofer-Institut für Sichere Informationstechnologie (Fraunhofer SIT), über das wir bereits im April letzten Jahres berichtet haben. Das Fraunhofer SIT ist mittlerweile eine Kooperation mit der Deutschen Telekom eingegangen und will mit der Email-Verschlüsselung "im ersten Halbjahr 2016" starten. Die Prüfung bei SecurePIM beschränkt sich, anders als bei der Fraunhofer-Lösung, bei der sich der Nutzer zuerst über eine elektronische Identität (eID) oder vergleichbare Verfahren authentifizieren muss, auf die Prüfung der Email-Identität. Dazu genügt es, dass sich der Nutzer korrekt gegenüber seinem Email-Provider authentifizieren kann. Der Nutzer lädt sich dazu über den Play-Store von Google oder Apples App-Store die SecurePIM-App auf sein Handy oder Tablet. Bei der App handelt es sich um einen Email-Client, der möglichst nah an den nativen Email-Clients der beiden Betriebssysteme entwickelt wurde. Die weitere Einrichtung ist einfach: Wie bei jedem anderen Email-Client meldet sich der Nutzer per IMAP mit seinem Login-Daten bei seinem Email-Provider an, von dem die App nach erfolgter Authentifizierung per "autodiscover" alle weiteren notwendigen Daten, wie Servername und Ports, erhält. Danach legt SecurePIM Zertifikate mit einer Schlüssellänge von 2048 Bit an, die dem schweizer Unternehmen SwissSign ausgegeben werden. Die zugehörigen Generalschlüssel sind bei schweizer Banken hinterlegt. Die App selbst kann darüber hinaus mit einem Passwort gegen unbefugte Nutzung gesichert werden. Mit diesen einfachen Schritten ist die Arbeit getan und der Nutzer kann ab sofort verschlüsselt Emails versenden. Mit der Email empfangene Dokumente werden auf dem Mobilgerät in einem speziellen Container abgelegt, der bei den Apple-Geräten zudem von der Synchronisation per iCloud ausgenommen ist. Unter Android liegt der Container noch auf dem internen Speicher des Geräts. Eine künftige Version soll auch Speicher auf einer SD-Karte verwenden können.
Als Email-Protokoll kommt bei verschlüsselten Emails S/MIME zum Einsatz. Öffnet man eine solche Email, sieht man im Klartext lediglich Absender und Empfänger sowie den Betreff der Email. Alles andere ist verschlüsselt und stellt für einen unberechtigten Leser nichts anderes als Zeichensalat dar. Ganz ohne Nachteile geht es nicht
Auch wenn die App zum Beispiel bei Exchange-Konten die Kontakte ebenfalls mit ausliest, sind diese wegen der von der App im Arbeitsspeicher durchgeführten die Verschlüsselung für andere Anwendungen nicht verfügbar. Das hat jedoch zur Folge, dass bei eingehenden Anrufen nicht mehr, wie gewohnt, der zugehörige Kontakt angezeigt wird. Um diese Funktion trotz Verschlüsselung zu bewahren, müssen Anwender ihre Kontakte in einem anderen Tool, beispielsweise dem nativen Email-Client des Mobilgeräts, laden. Verschlüsselte Emails werden in diesem Email-Client dann natürlich nicht lesbar dargestellt. Außerdem werden (derzeit) Kalendereinträge nicht mit ausgelesen. Das Produkt SecurePIM ist derzeit noch ausschließlich für Android (ab 4.2) und iOS (ab Version 8) verfügbar. Eine Version für Windows- und Mac-PCs soll noch im Frühjahr folgen. Dieses Tool soll dann den Import der Schlüssel vom Smartphone oder Tablet auf den PC und in den dort eingesetzten Mail-Client übernehmen. Unterstützt werden sollen die Email-Clients Apple-Mail, Thunderbird und MS Outlook ab Version 2007. Der Transfer des Zertifikats erfolgt dabei über einen gesicherten Tunnel. Dazu scannt der Nutzer mit seinem Smartphone einen QR-Code ab, der auf dem PC angezeigt wird und die entsprechenden Zielinformationen enthält. Alles weitere erfolgt auch hier wieder ohne weitere Interaktion des Nutzers. Eine Nutzung in Browser-basierten Email-Clients wie Outlook Web Access ist prinzipiell nicht möglich, da beim Zwischenspeichern des Schlüssels ein Sicherheitsleck entstehen würde. Im Client – unabhängig davon, ob es sich um den SecurePIM-Client auf dem Mobilgerät oder den Mail-Client auf dem PC handelt – sieht der Nutzer sofort nach der Einrichting anhand zweier kleiner Symbole in der geöffneten Email beziehungsweise einem Symbol in der Email-Übersicht, ob eine Email verschlüsselt gesendet oder empfangen wurde und kann beim Versenden für jede Email-Adresse festlegen, ob immer verschlüsselt oder unverschlüsselt kommuniziert werden soll. Er kann aber auch für jede Email einzeln entscheiden, ob er sie verschlüsseln will oder nicht. "Wir sind stolz auf die erste deutsche Sicherheitslösung für Apple iPhone und iPad, doch jetzt kann SecurePIM noch mehr", erklärt Dr. Raoul Herborg, CEO der Virtual Solution AG. "Dies ist die erste und somit einzige App, die verschlüsselte Emails wirklich leicht und intuitiv nutzbar macht. Es gibt ja schon lange die Möglichkeit, verschlüsselt und sicher zu mailen. Jedoch ist bislang der Installationsaufwand und die Pflege für den Privatanwender zu hoch. SecurePIM erledigt dies jetzt automatisch für den Anwender." Herborg fügt hinzu: "SecurePIM bringt mehr Sicherheit für jeden Anwender, eröffnet aber auch neue Perspektiven für ganze Branchen wie Banken, Versicherer, Gesundheitsanbieter oder Mobilfunkanbieter. Hier steht jetzt der Weg der E-Mail für den Versand von vertraulichen Daten an die Konsumenten offen. SecurePIM ist die disruptive App für vertraulichen Datenaustausch!" Auf Nachfrage erhielt Tom's Networking von Virtual Solution folgendes Statement zur Abgrenzung von SecurePIM von der Fraunhofer-Lösung: "Die Volksverschlüsselung von Fraunhofer SIT stellt Class-3-Zertifikate aus, die nicht nur eine Email-Adresse beinhalten, sondern auch den vollen Namen des Zertifikatsinhabers. Die Echtheit des Namens muss über ein umständliches Verfahren geprüft werden – zum Beispiel über PostIdent oder die eID-Funktionen des neuen Personalausweises (nPA). Dies stellt eine große Hürde für Nutzer dar und damit auch einen Grund, sich gegen Verschlüsselung zu entscheiden. SecurePIM setzt dagegen auf Usability, bei gleichzeitig hohem Sicherheitsstandard. Die Installation der App erfolgt binnen Minuten. Darüber hinaus hat das Fraunhofer SIT zunächst den Desktop im Auge, eine mobile Lösung ist in Planung. SecurePIM adressiert die mobile Nutzung per App und die stationäre Nutzung mit unterschiedlichen Mailprogrammen. Der Dienst zur Volksverschlüsselung von Fraunhofer SIT umfasst lediglich das Zertifikat und eine Software, um den Desktop-Client und Browser zu konfigurieren. SecurePIM dagegen bietet Zusatzfunktionen wie zum Beispiel einen sicheren Container und den Personal-Information-Manager-Client." Das Framework hinter SecurePIM ist seit Ende 2015 vom BSI zertifiziert und für die Nutzung im Behördenumfeld freigegeben. Neben der Endanwender-Version gibt es bereits zwei Version für Unternehmen bzw. Behörden, die sich vor allem im Management von der Endanwender-Lösung unterscheiden. So sind Kalenderfunktionen ausschließlich in den Lösungen für Unternehmen und Behörden verfügbar. Außerdem gibt es in diesen Versionen noch Funktionen für sichere Fileshares, wobei die Authentifizierung optional über eine Smartcard erfolgen kann. Preis und Verfügbarkeit:
Die App ist ab sofort in den App-Stores von Android und iOS verfügbar. Der Download aus dem App-Store ist kostenlos. Nach einer dreimonatigen Testphase muss der Nutzer eine Lizenz erwerben, die pro Jahr 24 Euro kosten soll und den Preis für das Zertifikat von SwissSign bereits enthält. Zahlung der Lizenz soll nach aktuellem Stand per In-App-Kauf erfolgen, in der aktuellen Version der App ist das jedoch noch nicht möglich. Diese Option wird erst über ein Update integriert, das rechtzeitig vor Ablauf der kostenlosen Testphase erscheinen soll.

AVG schafft per App Platz auf dem Handy 10 Feb 2016 10:33 AM (9 years ago)

München – Handy-Kameras bieten immer höhere Auflösung und so manches Handy schießt gleich mehrere Bilder, damit der Anwender dann entscheiden kann, welches ihm am besten gefällt. So praktisch die Kamers in den Handys sind - ähnlich wie bei Digitalkameras verleiten sie dazu, das eine oder andere Bild mehr zu machen, weil man sie ja nicht erst kostenpflichtig entwickeln lassen muss. Im Eifer des Gefechts entstehen dabei nicht nur kreative Bilder, sondern auch viel Ausschuss - Bilder die einfach nur den Speicher belegen. AVG, der Online-Security Anbieter für Geräte, Daten und Menschen räumt hier auf. Mit dem aktuellen Update des AVG Cleaner für Android (im Play-Store unter "AVG Reinigungs- & Akkuspar-App" zu finden) führt AVG eine neue Funktion ein, mit der man die eigenen Bildergalerien aufräumen und Platz schaffen kann. Der Smart Photo Cleaner spürt unscharfe, doppelte oder ähnliche Bilder automatisch auf und löscht diese schnell und einfach. Im Handumdrehen ist wieder Speicherplatz für neue, bessere Bilder frei. Der neue AVG Cleaner für Android 3.0, die umfangreiche AVG-App zur Erhöhung der Smartphone-Performance, wurde auch um ein intuitives Dashboard erweitert. Die Funktion analysiert den Status des Android-Smartphones mit einem Klick und bereinigt automatisch Dateien, Speicherplatz sowie Apps, die den Akku beständig leeren. Zusammenfassung der neuen Funktionen des AVG Cleaner

In der kostenlosen Version zahlt man für die Nutzung mit der Einblendung von Werbung. Außerdem ist noch die Funktion "Battery-Manager" auf die Pro-Version beschränkt. Das Upgrade auf die Pro-Version gibt es als In-App-Kauf für 8,50 Euro / Jahr.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

München – Die Größe eines Unternehmens sagt noch nichts über seinen Bandbreitenbedarf aus. Kleine Firmen und Selbständige sind häufig - nicht zuletzt durch zunehmende Nutzung von Cloud-Diensten - sogar noch mehr auf eine schnelle und zuverlässige Internetverbindung angewiesen, um ihrem Geschäft nachzugehen. Für diese Zielgruppe, die sogenannten SOHOs (Small Office / Home Office), hat M-net nun ein besonders starkes Angebot geschnürt: einen professionellen Geschäftskundenanschluss für weniger als 15 Euro im Monat. Das Internet ist aus dem heutigen Wirtschaftsleben nicht mehr wegzudenken, denn jedes Unternehmen ist auf vielfältige Weise auf das weltweite Datennetz angewiesen. Spätestens, wenn die Anbindung mal ausfällt, merken diese Unternehmen und Selbständigen, wie sehr sie auf einen schnellen Internetanschluss für das eigene Business angewiesen sind. Denn die Größe der Firma sagt noch nichts über ihren Bandbreitenbedarf aus. Große Unternehmen brauchen zuweilen mehr interne Bandbreite als externe Bandbreite. Bei kleinen Unternehmen und Kreativen wie Designern oder Architekten ist oftmals die Kommunikation mit anderen Unternehmen oder Kunden vorrangig und es müssen oft sehr große Datenmenge versandt werden, wofür eine besonders schnelle Leitung erforderlich ist. Ebenso sind Anbieter von Webshops auf stabile und leistungsfähige Leitungen angewiesen, um ihre Webseiten zu pflegen und kundenfreundliche Online-Services anzubieten. "Oft können wir viel höhere Bandbreiten anbieten als unserer Wettbewerber, auch wenn der Ort noch nicht mit Glasfaserleitungen erschlossen wurde. Daher lohnt es sich für viele Unternehmen, einfach nachzufragen und die Verfügbarkeit eines schnelleren Anschlusses von uns checken zu lassen", sagt Lars Richter, der Leiter des Geschäftskundenbereichs bei M-net. M-net pusht Kleinunternehmen und Selbstständige
Der regionale Telekommunikationsanbieter M-net, dessen Kernkompetenz im B2B-Geschäft liegt, bietet mit seinen Geschäftskunden-Anschlüssen die perfekte digitale Infrastruktur für moderne Büros und hat speziell für kleine Unternehmen und Selbständige ein besonders attraktives Angebot geschnürt. Den Premium DSL-Anschluss mit [bis zu, Anm. d. Red.] 18 MBit/s gibt es bei Abschluss eines Zweijahres-Vertrags in den ersten 12 Monaten für 14,90 Euro monatlich, ab dem dreizehnten Monat kostet der Anschluss dann 24,90 Euro. Bei einem M-net Premium DSL-Anschluss stehen bis zu zehn Festnetzrufnummern zur Verfügung. Zusätzlich bietet der Anbieter einen Premium-Entstörservice an, der rund um die Uhr - auch am Wochenende - erreichbar ist. Weitere Optionen sind die hochsichere, mehrfach verschlüsselte Business-Cloud "Data Space", die vernetztes Arbeiten mit Geschäftspartnern von unterschiedlichen Orten aus ermöglicht und die Verfügbarkeit einer festen IPv4-Adresse, mit der Server und Online-Shop jederzeit öffentlich erreichbar bleiben.

Sophos: RED 15 jetzt auch mit WLAN-Schnittstelle 9 Feb 2016 1:22 AM (9 years ago)

Wiesbaden, 9. Februar 2016 – Sophos stellt eine neue Version seines RED Hardware Devices mit integriertem WLAN vor. RED steht für Remote Ethernet Device und ist einfach in der Anwendung: Die Appliance stellt automatisch einen mit AES 256-Bit-Verschlüsselung gesicherten Ethernet-Tunnel zwischen dem externen Office und der firmeninternen Firewall her. Damit können Unternehmen ihr Netzwerk an kleinen oder Home-Offices sehr einfach ausweiten. Neben den Appliances RED 15 und RED 50 steht nun ebenfalls das RED 15w mit integriertem WLAN im Fachhandel zur Verfügung. Sicheres Remote Office per Knopfdruck
Das RED ist kostengünstig und extrem einfach in der Handhabung. Administratoren geben lediglich die ID des RED Gerätes in der Konsole der Sophos Firewall ein und senden es anschließend an den Remote-Standort. Dort mit dem Internet verbunden, baut die Appliance automatisch einen verschlüsselten und manipulationssicheren Tunnel mit den Sophos XG und SG Firewall Series auf. So lassen sich DHCP und andere Netzwerkelemente des Remotenetzwerks kontrollieren. Die zentrale Verwaltung der RED-Appliances bietet die Anwendung von Firewall-, Internet- und individuellen Sicherheitsrichtlinien für alle externen Standorte.
 
Technische Spezifikationen
RED 15w (neu)
Maximale Benutzer       unbegrenzt
Maximaler Durchsatz    90 Mbit/s
LAN-Schnittstelle           4 x 10/100/1000 Base-TX
WAN-Schnittstelle         1 x 10/100/1000 Base-TX
USB-Schnittstelle           1 x USB 2.0
WLAN Schnittstelle        802.11n
 
RED 15
Maximale Benutzer       unbegrenzt
Maximaler Durchsatz    90 Mbit/s
LAN-Schnittstelle           4 x 10/100/1000 Base-TX
WAN-Schnittstelle         1 x 10/100/1000 Base-TX
USB-Schnittstelle           1 x USB 2.0
WLAN Schnittstelle        -
 
RED 50
Maximale Benutzer       unbegrenzt
Maximaler Durchsatz    360 Mbit/s
LAN-Schnittstelle           4 x 10/100/1000 Base-TX
WAN-Schnittstelle         2 x 10/100/1000 Base-TX
USB-Schnittstelle           2 x USB 2.0
WLAN Schnittstelle        -

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

Safer Internet Day: 10 Tipps von Avira 9 Feb 2016 12:18 AM (9 years ago)

Tettnang – Straßenraub udn Taschendiebstahl kennt die Welt seit vielen Jahren. Im digitalen Zeitalter heißt der Taschndiebstahl nun Cyber-Kriminalität. Mit dem Safer Internet Day will die Europäischen Kommission die Aufmerksamkeit für die Gefahren digitaler Angriffe erhöhen. Von Avira gibt es dieses Jahr konkrete Sicherheitstipps für den Umgang bei den täglichen Internetaktivitäten. Im Internet Einkäufe tätigen, News lesen und Bankgeschäfte erledigen sind inzwischen selbstverständliche Online-Aktivitäten. Gleichzeitig steigt aber mit der zunehmenden Einbindung der digitalen Welt der Bedrohungslevel. Allein gestern gab es laut Auswertungen des IT-Sicherheitsspezialisten Avira 3,4 Millionen Bedrohungen durch Malware (Quelle: https://www.avira.com/en/threats-landscape). Der jährlich, an diesem Jahr am Dienstag, 9. Februar 2016, stattfindende weltweite Aktionstag "Safer Internet Day" soll den Blick für die Gefahren schärfen und Internetaktivitäten sicherer machen. Wie mehr Sicherheit im Netz unabhängig vom verwendeten Endgerät konkret aussehen kann, erläutert Avira mit den folgenden zehn Tipps:

  1. Niemals ohne
    Sicherheitssoftware ist die erste und wichtigste technische Schutzmaßnahme für privat genutzte Endgeräte. Durch zunehmende Nutzung von Cloud-Funktionen, können aktualisierte Virusdefinitionen schneller auf alle Endgeräten genutzt werden. Durch die Nutzung der Cloud wird der Computer während der Virensuche zudem weniger belastet und es können schnell Informationen vieler anderer Nutzer zum Vergleich herangezogen werden und stehen für die Trenderkennung zur Verfügung. Wichtig ist, dass die Schutzsoftware regelmäßig durch unabhängige Testinstanzen wie AV-Test, AV-Comparatives oder Virus Bulletin geprüft und ihre Effizienz bestätigt wird.
  2. Updates, Updates, Updates
    Keine Software ist fehlerfrei. Darum sind Updates nicht nur für das Betriebssystem, sondern auch für die Anwendungen Pflicht – und zwar so schnell wie möglich, nachdem eine neue Version bereitgestellt wurde. Je verbreiteter eine Software ist,, desto gefährlicher sind Schwachstellen, weil es sich dann für die Entwickler von Schadcode lohnt, hierfür Angriffe zu entwickeln. Schwachstellen in weit verbreiteten Programmen wie Adobe Acrobat Reader oder Java-Plug-Ins gehören daher zu den gefährlichsten Bedrohungen überhaupt und werden sofort nach deren Bekanntwerden von Cyber-Kriminellen ausgenutzt. Regelmäßige Überprüfungen auf neue Versionen und die Installation von Patches sind lästig, aber leider notwendig.
  3. Durchhaltevermögen zeigen
    Antivirus-Software scannt Endgeräte in der Regel automatisch. Das belastet vor allem ältere PCs und macht sich durch schlechtere Reaktionszeiten bemerkbar. Trotzdem sollte man die Checks nicht vorzeitig abbrechen. Sie sind die Basis für ein sicheres System ohne versteckte Schadsoftware.
  4. Wer alles darf, macht vieles falsch
    Moderne Betriebssysteme können unterschieliche Benutzer sehr gut trennen. Selbst wenn man den PC allein verwendet, sollten zumindest zwei Benutzeraccounts definiert sein: Neben dem Admin-Account mit vollen Rechten auch ein täglich genutzter persönlicher Account. Der persönliche Account muss in seinen Rechten beschränkt sein, denn so kann Schadsoftware keine Kontrolle über Systemfunktionen übernehmen, wenn sie eingeschleppt wird. Auch wenn es lästig ist: Lieber gibt man für die Installation neuer Software extra das Passwort des Admin-Accounts ein, als dass Schadsoftware sich "einfach so" installieren lässt.
  5. Weiterklicken, hier gibt es nichts zu sehen
    Werbung ist eine legitime Art der Finanzierung für viele Webseiten. Die Mechanismen zur Anzeige werden aber oft für Ad-Ware und Phishing-Angriffe missbraucht. Aus Sicherheitssicht ist ein Ad-Blocker eine sinnvolle Ergänzung des Schutzkonzepts, auch wenn sie von vielen Webseitenbetreibern gehasst werden.
  6. Niemals nackt, auch nicht am Strand
    WLAN-Access–Points sind – vor allem in viel frequentierten Urlaubsgebieten oder an öffentlichen Orten – der Hort der Gefahr. Die Daten werden häufig unverschlüsselt oder nur marginal geschützt übertragen und sind am Access-Point in aller Regel abgreifbar. Dagegen hilft nur Verschlüsselung. Beim Browsen kann das ein Tool wie HTTPS Everywhere sein, das die verschlüsselte SSL-Kommunikation mit Webseiten erzwingt. Der neue Avira Scout Browser hat diese Tool bereits integriert. Den kompletten Datenverkehr sichert ein Virtual Private Network (VPN) ab.
  7. Passwörter. Immer wieder Passwörter.
    Das Ende des Passworts als einziger Zugangsschutz ist zumindest eingeleitet, neue Betriebssysteme und Anwendungen bieten eine Zwei- oder Mehr-Faktor-Authentifizierung an. Wenn dieses Feature (noch) nicht verfügbar oder ungewünscht ist, sollten ein Passwort-Manager (zum Beispiel KeePass) oder komplexe und vor allem unterschiedliche Passwörter für jeden wichtigen Account verwendet werden.
  8. Einfach mal loslassen können
    Nicht genutzte Anwendungen sollten vom Endgerät entfernen werden. Java und Flash beispielsweise sind kaum noch für Webseiten erforderlich, stellen aber ein sehr hohes Sicherheitsrisiko dar. Weg damit!
  9. Guck mal, wer da zuschaut
    Internetaktivitäten der Nutzer aufzuzeichnen und deren Surfverhalten weiter zu verkaufen ist eine Haupteinnahmequelle von Google, Facebook und Co. Wer das nicht gut findet – und es ist ganz erstaunlich, was mit diesen Daten alles an Querverbindungen und Schlussfolgerungen hergestellt werden kann – kann sich mit Tools wie dem Privacy Badger des EFF, dem Avira Browser Safety Plug-In oder Ghostery schützen.
  10. Das Problem vor dem Bildschirm
    Nach wie vor klicken zu viele Anwender zu leichtfertig auf E-Mail-Anhänge oder Links. Spam wäre längst ausgestorben, wenn nicht immer noch Menschen glauben würden, dass die angebotenen Potenzpillen wirklich supergünstig sind. Erfolgreiche Schadsoftware verbreitet sich immer noch durch einen schnellen Klick auf das angehängte Dokument. Es ist an der Zeit den Klickreflex abzustellen und den Posteingang mit mehr Zurückhaltung zu betrachten.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

9. Februar: Safer Internet Day 8 Feb 2016 5:08 AM (9 years ago)

München - Im Zuge des diesjährigen “Safer Internet Day” raten F-Secures Sicherheitsexperten allen Eltern technikinteressierter Kinder, sich über die Risiken der neuen, für das „Internet der Dinge“ entwickelten Smart Toys zu informieren. Der 9. Februar ist der Safer Internet Day. Seit Jahren dient er Eltern und Lehrern als Aufhänger um Kinder und Jugendliche für einen sicheren und verantwortlichen Umgang mit dem Internet zu sensibilisieren. Doch während Eltern in einer Welt zwischen Mobiltelefonen und Social Media bei der Online-Sicherheit ihrer Kinder ohnehin schon großen Herausforderungen gegenüberstehen, müssen sie sich nun laut Experten einer neuen Gefahr im „Internet of Things“ (IoT), dem Internet der Dinge, stellen: Smart Toys. Im Grunde sind "Smart Toys" Spielzeuge, die mit dem Internet verbunden sind – und eine der großen kommenden Produktkategorien unter den IoT-Geräten. So sagte eine 2015 durchgeführte Studie bis zum Ende von 2015 für Smart Toys einen Gesamtumsatz von bis zu 2,8 Milliarden US Dollar voraus.
Dem gegenüber steht jedoch eine immer noch anhaltende Moralpanik über die Datenschutz- und Sicherheitsrisiken, denen Kinder heutzutage im Netz ausgesetzt sind, eine direkte Folge des berüchtigten VTech-Datenhacks letztes Jahr, bei dem die persönlichen Daten von circa 6,4 Millionen Kindern gestohlen wurden.

"Was Eltern verstehen müssen", so F-Secure Sicherheitsberater Sean Sullivan, "ist dass Smart Toys nicht nur für sie und ihre Kinder, sondern auch für die Hersteller komplettes Neuland sind. Smart Toys sind, wie alle anderen IoT-Geräte auch, ein hart umkämpfter Markt und es gibt bereits zahlreiche Beispiele, bei denen die Sicherheit der Geräte fast schon beiläufig oder geradezu nebensächlich erscheint. Den Firmen ist es oft wichtiger, ihren Kundenstamm zu vergrößern, als die Daten ihrer Kunden effektiv zu schützen – und so werden wir wahrscheinlich noch einige Zeit mit solchen Sicherheitslücken in Smart Toys zurechtkommen müssen." Richtige Erziehung ist der Grundstein für die Online-Sicherheit unserer Kinder
Ob sie sich nun um IoT-Geräte, Mobiltelefone oder andere Online-Sicherheitsprobleme sorgen, der beste Weg für Eltern ihre Kinder zu schützen, ist sich aktiv an deren Lernprozess bei der Benutzung von neuen Geräten und Online-Diensten zu beteiligen. Einer aktuellen Studie von F-Secure mit knapp 9000 Teilnehmern aus elf Ländern zufolge, können sich Eltern in diesem Bereich aber noch stark verbessern. Nur 30% der Befragten gaben an, mehr als einmal pro Woche die Internetnutzung ihrer Kinder zu überprüfen oder Einstellungen zur Kindersicherung an deren Geräten zu verwenden. Und nur 38% erklären ihren Kindern mehr als einmal pro Woche, wie sie sich online sicher verhalten und schützen können. Laut F-Secure Forscher Mikael Albrecht kann dies durchaus problematisch werden, vor Allem im Hinblick auf die rasante Entwicklung der Technologie und der Art und Weise, wie Kinder und Jugendliche mit ihr interagieren. "Am traditionellen Computer stehen Eltern zahlreiche Werkzeuge zum Schutz ihrer Kinder zur Verfügung – bei IoT-Geräten, Handys und anderen Mobilgeräten sieht das leider anders aus. Hier werden Kinder nicht als eigene Benutzergruppe mit unterschiedlichen und ganz speziellen Bedürfnissen erkannt, was wiederum den Eltern nur sehr begrenzte Möglichkeiten zum Online-Schutz ihres Kindes bietet. So gibt es zwar Einstellungen wie Altersbeschränkungen, aber die sind so simpel, dass Kinder sie problemlos umgehen können, bevor die Eltern merken, was passiert." Eine Lösung für dieses Problem sehen Sullivan und Albrecht im direkten Dialog: Eltern sollen sich mit ihren Kindern und deren Online-Interessen aktiv auseinandersetzen und ihnen dabei helfen, neue Technologien auf gesunde und positive Weise zu benutzen. Dabei gibt es für Eltern einige, leicht anwendbare Herangehensweisen, um Kindern erfolgreich einen sicheren Umgang mit dem Internet beizubringen:

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

München – In Darmstadt wurde im Rahmen einer feierlichen Einweihung das neue Rechenzentrum für das internationale Beschleunigungszentrum "FAIR" des GSI Helmholzzentrums für Schwer-Ionenforschung offiziell eröffnet. Das Projekt "Green Cube" entstand in enger Zusammenarbeit mit Emerson Network Power, ein Unternehmen von Emerson Network Power (NYSE: EMR) und ein weltweit führender Anbieter kritischer Infrastruktur für Systeme der Informations- und Kommunikations-Technologie, und dem Technologiegeber e3 computing (e3c), Vermarkter des eCube-Konzepts. Das Gesamtinvestitionsvolumen für Bau und Ausstattung beträgt knapp 12 Millionen Euro. Das Projekt hat Pioniercharakter: In seiner Größenordnung weist es ein völlig neues Konzept auf, das sich durch seine Nachhaltigkeit, Einfachheit und Modularität auszeichnet. Durch die einzigartige, würfelförmige Architektur des Rechenzentrums und ein neuartiges Kühlkonzept mit Wärmetauscher-Türen ist der Green Cube besonders platz- und kostensparend. Emerson Network Power war für die Realisierung eines Teils des Kühlsystems zuständig: Die sechs Etagen des Cubes sind mit jeweils 128 19-Zoll-Serverschränken Knürr DCM inklusive Knürr DCD-Rücktür-Wärmeübertragern mit Wasserdurchlauf ausgestattet. Die rückseitig am Rack angebrachten Knürr DCD-Rücktür-Wärmeübertrager sind das Kernelement der Kühlung, da über diese die gesamte Wärme der Rechner abgeführt wird. In Verbindung mit einem hybriden Kühlturm für die Kühlwasser-Bereitstellung lässt sich ein pPUE (partial Power Usage Effectiveness) von unter 1,04 erreichen, im Teillastbetrieb sogar darunter. "Am GSI Helmholtzzentrum entstehen enorm hohe Datenmengen, die gespeichert und verarbeitet werden müssen. Gleichzeitig suchen wir als Forschungsinstitut stets nach Wegen, Prozesse und Lösungen noch effizienter zu gestalten", sagt Prof. Dr. Volker Lindenstruth, Leiter  der GSI wissenschaftlichen IT und Projektverantwortlicher. "Die Kombination aus dem Gebäude Green Cube und der innovativen Kühllösung von Emerson Network Power war für uns die ideale Lösung. Dank der äußerst konstruktiven und zielorientierten Zusammenarbeit aller Beteiligten, besonders aber Emerson Network Power, hat sich der Einsatz für uns absolut gelohnt." Um die reibunglose Funktionsfähigkeit des Green Cubes zu gewährleisten, führte Emerson Network Power zusammen mit GSI eine umfassendes, mehrjährige Testphase durch. Damit legte Emerson Network Power bereits vor dem Baustart den Grundstein für die weitere erfolgreiche Umsetzung des Projekts. "Die intensive Vorlaufphase war absolut notwendig, schließlich war der Green Cube für uns ein völlig neues Konzept", sagt Dr. Peter Koch, vice president solutions and complexity management bei Emerson Network Power in Europa, dem mittleren Osten und Afrika. "Die Errichtung des neuen Rechenzentrums mit diesem Designkonzept und dieser Ausstattung ist beispielhaft und nicht nur für das GSI Helmholtzzentrum ein wichtiger Schritt, sondern für die ganze Branche."

Z-Wave.Me will mit Apps die Hausautomation leichter machen 28 Jan 2016 8:18 AM (9 years ago)

Hohenstein-Ernstthal – Die Z-Wave Europe GmbH, die zu sich als größter europäischer Distributor für Z-Wave-basierte Smart-Home-Geräte Z-Wave bezeichnet, gibt bekannt, dass dass die von Z-Wave.Me entwickelte Smart Home Software „Z-Way“, um eine Vielzahl praktischer Anwendungen erweitert wird.

Z-Way wird bereits tausendfach auf Raspberry-Pi-Computern für die Heimautomation eingesetzt. Sogar der Speicher-Hersteller Western Digital setzt auf diese Software, damit Anwender ihre WD-Geräte aus der My-Cloud-Serie mit Hilfe eines Z-Wave-USB-Sticks zu einem Smart-Home-System nachrüsten können.

Um Nutzern die Einrichtung und Bedienung zu erleichtern, verfügt Z-Way ab sofort über einen App-Store. Diese fertigen Anwendungen übernhmen, wie vom Smartphone gewohnt, feste Aufgaben im automatisierten Zuhause. Sie lassen sich von Anwendern an deren Bedürfnissen anpassen.

Geht es um das Erstellen von Automatisierungen geht, dürften aktuell verfügbare Smart-Home-Systeme wegen ihrer Komplexität viele Anwender überfordern, erfordern individuelle Anpassungen doch teilweise sogar Programmierkenntnisse. Unter dem Slogan „APPgrade your Home“ werden im Z-Way Store verschiedene Apps angeboten, die bereits fertig sind und direkt eingesetzt werden können. Um beispielsweise eine komplexe Heizungssteuerung zu realisieren, muss der Nutzer nur noch Parameter wie zu verwendende Geräte, Räume und Heizzeiten in der App auswählen.

Während sich viele Systeme auf einfache Wenn-Dann-Regeln beschränken, sollen die Z-Way-Apps nahezu unendliche Möglichkeiten für individuelle Automatisierungen bieten. Schon zur Eröffnung des App-Stores sollen zahlreiche Anwendungen verfügbar sein, weitere sollen in den kommenden Monaten folgen. Darüber hinaus steht der App-Store auch für alle externen App-Entwickler offen, die sich unter developer.z-wave.me registrieren und eigene Anwendungen einreichen können. Z-Wave.Me will solche Apps prüfen und für die öffentliche Nutzung freigegeben. Mittels Nutzungs-Code – einem sogenannten „Token“ – kann der Entwickler seine selbst entwickelte App jedoch zu Test- und Nutzungszwecken auf einen begrenzten Personenkreis beschränken.

Auf dem herstellerunabhängigen deutschsprachigen Online-Portal www.zwave.de, das Handbücher und Informationen und vielen Z-Wave Geräten bereit hält, soll es zukünftig auch Unterstützung für den Z-Way App-Store geben.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

MWC 2016: Zyxel zeigt ersten LTE-Cat-6-Homespot-Router 28 Jan 2016 2:58 AM (9 years ago)

Würselen - Heimnetz-Router mit WLAN gehören schon länger zur Standardausstattung und sind kaum mehr eine Meldung wert. Die meisten beherrschen mittlerweile per USB-Stick sogar die Anbindung an Mobilfunk-Netze. Auf dem Mobile World Congress 2016 in Barcelona (22. – 25. Februar) stellt Zyxel sein neues LTE-Portfolio vor, zu dem auch das brandneue Router-Modell LTE 4506 gehört, das die beiden Standards LTE Cat 6 (LTE Advanced) und Wireless 802.11ac in nur einem Gerät kombiniert.

Als Teil der mobilen Zugangslösung von Zyxel ermöglicht der "4G LTE-A 802.11ac Wi-Fi HomeSpot Router" LTE4506 den Anschluss an zahlreiche mobile Breitbanddienste weltweit. Dank Carrier Aggregation Technologie ist der Router kompatibel mit LTE, DC-HSPA+/ HSPA/ UMTS und EDGE/ GPRS/ GSM. Es handelt sich derzeit laut Zyxel um das einzige Modell bei den mobilen Heimnetz-Routern, das sowohl über LTE-Cat-6-Unterstützung als auch über die Carrier Aggregation Technologie verfügt. Im Download sind damit Datenraten von bis zu 300 MBit/s möglich und damit doppelt so viel wie bei Kategorie-4-Geräten.

WLAN-seitig unterstützt der LTE4506 den Standard 11ac mit Dual-Band (2,4 GHz + 5 GHz) für Wi-Fi-Dienste, die bis zu 32 gleichzeitige Benutzer mit einer sicheren Verbindung bedienen können. Zum bequemen Teilen des Wi-Fi mit anderen Nutzern ist am Gerät eine One-Touch-Taste zum schnellen und einfachen Einschalten der Wi-Fi-Sharing-Funktion vorhanden. Weitere Features sind ein Micro-USB-Anschluss zum flexiblen Aufladen und ein Gigabit-LAN-Port zum Anschluss von Nicht-Wireless-Geräten.

"Der LTE 4506 ist ein idealer Begleiter für den Familienurlaub oder auch für kleine Betriebe. Er liefert aus dem 4G Netzwerk schnellere Downloads und höhere Datenraten. Das Device versetzt Service Provider in die Lage, eine höhere Netzwerkkapazität an seine Kunden zu liefern, und ermöglicht es ihm zudem, neue Apps und Services anzubieten, die höhere Datenraten benötigen, wie z. B. mobile Videostreams oder Gaming", sagt Wayne Hwang, Vice President der Business Unit Service Provider bei Zyxel. Neben diesem Router stellt Zyxel auf dem MWC 2016 noch den Outdoor-4G-Router Zyxel LTE 7410, den Multi-Mode-Router LTE 7460 und den tragbaren LTE-Router WAH7706 vor, und bietet so  – zusammengefasst ein End-to-End-LTE-Portfolio, das eine schnelle Wireless-Konnektivität verschiedener Anwendungsszenarien ermöglicht.

"Mit mittlerweile 79 Millionen 4G-Abonnements im Jahr 2015 in Europa, und dem boomenden 802.11ac Standard, wird die Nachfrage nach einer 24/7 Verfügbarkeit mobiler Breitband- und Multi-Device Connectivity exponentiell weiter ansteigen"
, sagte Hwang. "Wenn mehr intelligente Geräte (Smart Devices) eingeführt werden und das Internet of Things in 2016 Wirklichkeit wird, ist davon auszugehen, dass die Nachfrage weiter explodiert. Statistischen Schätzungen zufolge, wird die Anzahl von 4G-Abonnements bis zum Jahr 2020 voraussichtlich 267 Mio. erreichen." Neben dem LTE-Portfolio präsentiert Zyxel auf dem MWC 2016 außerdem seine Connected-Home-Lösung, eine Small-Cell-Lösung und die In-Building-Coverage-Lösung. Demonstriert wird hier z.B. wie drastisch die Lösungen durch die vereinfachte Integration von mehreren Benutzern und Szenarien den Druck auf das Netzwerk eines modernen Mobilfunkbetreibers reduzieren können und wie die Mobilität von In-home-Konnektivität in der Cloud und die Maximierung der mobilen Breitbandabdeckung Vorteile bieten.

Zyxel stellt auf dem Mobile World Congress in Barcelona in der Fira Gran Via, in Halle 5 am Stand 5G10 aus. Weitere Informationen unter http://mwc.zyxel.com/

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

Aconso: Praxistipps zur Dokumentenerzeugung 28 Jan 2016 12:03 AM (9 years ago)

Wann ist eine automatische Dokumentenerzeugung sinnvoll?
Einen grundsätzlichen Richtwert gibt es nicht, die empfohlene Mindestzahl liegt bei 1.000 Mitarbeitern. Eine Einführung kann aber bereits dann sinnvoll sein, wenn nicht sicher ist, ob jeder Mitarbeiter das aktuelle Corporate Design eines Unternehmens in seinen Dokumentvorlagen korrekt verwendet. Besonders kritisch wird es dann, wenn die Aktualisierung von Dokumentinhalten nicht mehr bis zu den Sachbearbeitern durchdringt und veraltete Vertragsdokumente verschickt werden. Zusätzlich sparen die Mitarbeiter Zeit, wenn sie durch eine integrierte Dokumentenerzeugung die Daten nicht in zwei unterschiedliche Systeme wie beispielsweise Word und SAP eingeben müssen. Welche Dokumente eignen sich für ein Dokumentenmanagementsystem?
Prinzipiell eignet sich jedes Dokument im Unternehmen für ein Dokumentenmanagementsystem, allen voran Verträge, insbesondere bei komplexeren Abstimmungen, Zeugnisse, Arbeitszeitanpassungen und Prämien- oder Bonusschreiben . Bei einer größeren Mitarbeiterzahl kann es sich ebenfalls auszahlen, wiederkehrende Korrespondenzen, Arbeitsbescheinigungen oder Bescheide zum Thema Mutterschutz und Rente über eine automatische Dokumentenerzeugung zu erstellen. Was muss man bei der Einführung beachten?
Ein großes Zeit- und Kosteneinsparungspotential besteht häufig in der Klärung der HR-Prozesse im Vorfeld einer Einführung. In meiner täglichen Arbeit beobachte ich oft, dass die einzelnen Prozesse in Unternehmen nicht klar definiert sind und erst im Rahmen der Einführung festgelegt werden. Das ist zwar kein großes Problem, muss aber im Zeitplan berücksichtigt werden. Schon vor der Einführung sollten diejenigen Dokumente beziehungsweise Dokumentprozesse ermittelt werden, die die höchste Last verursachen. Sind diese Dokumente beziehungsweise Prozesse umgesetzt, lässt sich unmittelbar erkennen, wie viel Potenzial das Tool mit sich bringt. Was ist bei der Integration in andere Anwendungen wie SAP zu beachten?
Eine große Arbeitserleichterung ist sicher eine Vollintegration der Dokumentenerzeugung in den SAP-Workflow oder in andere Drittsysteme. In einer SAP-Umgebung lässt sich zum Beispiel der komplette Erstellungsprozess direkt steuern. Informationen zum Prozess, zum Dokument und zu den Daten im Dokument sind jederzeit abrufbar und weiter zu verarbeiten. Der oft als sehr aufwendig empfundene Wechsel zwischen verschiedenen Softwarelösungen entfällt. Wie kann noch mehr Zeit eingespart werden?
Um den Pflegeaufwand weiter zu reduzieren, hat es sich bewährt, Vorlagen zu verknüpfen. Das heißt, ändert sich beispielsweise der Firmensitz eines Unternehmens, so muss dadurch nicht jedes Dokument einzeln angefasst werden. Vielmehr werden alle im System vorliegenden Dokumente automatisch auf die neue Firmenadresse angepasst. Das hilft letztlich auch, oft folgenschwere Fehler vermeiden.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

München – Zum ihrem Januar-Jour-fixe 2016 im Internationalen PresseClub München hatte sich die Technisch-Literarische Journalistenvereinigung (TELI e.V.) des Themas "Zukunft der Datenspeicherung" gewidmet und als Referenten den Diplom-Physiker Matthias Zahn, CEO der auf Langzeitspeicherung von Daten spezialisierten FAST LTA AG gewinnen können. Denn eines scheint heute so sicher wie in Zukunft: Daten löschen ist out, Daten bewahren dagegen so in wie nie zuvor – man weiß ja nie, wozu man sie noch gebrauchen könnte. Die FAST LTA AG mit Sitz in München (Slogan: "Wir sichern Terabytes") ist seit 2006 im Speichergeschäft, fertigt und vertreibt aktive Archiv-Speicher (Silent Cubes seit 2009 und Silent Bricks seit 2015). Seit ihrem Bestehen hat sie eine Speicherkapazität von 40.000 Terabyte ausgeliefert. Welchen Umfang die massenhafte Einlagerung von Daten aller Art angenommen hat, offenbaren nicht erst die Enthüllungen von Edward Snowden. Jeder, der heute ein Smartphone sein eigen nennt, kann es herstellerkonform ohne Cloud-basierten Datendienst schon gar nicht erst nutzen, die meisten Apps generieren ohne Zutun der Anwender Daten, die sie beim "Nachhausetelefonieren" auf Servern ablegen. Und so landen immer mehr von Anwendern und Anwenderinnen – bewusst oder unbewusst – generierte Daten auf irgendwelchen Datenspeichern, die irgendwo im Netz stehen. Hinzu kommen alle die Daten, Videoüberwachung, Suchanfragen, Shops, Gesundheits-Apps, das Internet of Things, Industrie (4.0) oder der Automotive-Bereich generieren. Einer IDC-Prognose zur Folge, so Matthias Zahn, steigt das zu speichernde Datenvolumen bis zum Jahr 2020 auf 40 Zetabyte an, das sind 40 Millionen Petabyte oder mehr als 5 Terabyte pro Erdbewohner. "Diese Zahl ist so groß, dass die existierende Speicherarchitektur überdenkenswert ist", erklärt Zahn. Denn weniger Daten werden es nicht werden, weil einfach keine Daten mehr weggeworfen werden. Grund, so Zahn: "Löschen ist richtig Arbeit!" Und so verteilt sich das existierende Datenvolumen "im digitalen Universum" heute im Wesentliche auf drei Sorten Speichermedien: Matthias Zahns Einschätzung: "Das Gros stellen Festplatten (85 Prozent), Flash ist stark im Kommen, aber deutlich teurer, und Tape wird zunehmend ungebräuchlich." Diese drei Speichertypen werden laut Zahn auch 2020 noch den Hauptbestandteil stellen, wenngleich immer wieder von neuen Technologien die Rede sei, etwa dem Memristor, ebenfalls ein Festkörper-Speicher, der Daten in dreidimensionalen Strukturen speichern kann, im Gegensatz zum flächigen Aufbau von Flash-Chips. Doch Memristor-Hauptprotagonist, Hewlett Packard, hat erneut einen Rückzieher gemacht. Als Grund nennt Zahn die exorbitanten Kapitalkosten. Bis zu 10 Milliarden US$ kostet heute eine neue Fabrik, egal ob für Flash- oder Festplattenspeicher. Die Kapitalkosten sind so unglaublich hoch, dass die Umsetzung einer Idee in marktreife Produkte mit signifikantem Marktanteil bis 2020 nicht mehr möglich sein wird", so Zahn, dem zur Folge optische Speicher, trotz Holographie, ebenfalls nicht mehr mithalten können. Für alle Speichertypen gebe es Zielkonflikte bei der Optimierung von Kosten, Qualität und Zeit – auf Speicher übersetzt, Kosten, Integrität und Performanz bedeuten, wobei Zahn bei der Performanz zwischen Geschwindigkeit und Latenzzeit differenziert. Je nach Einsatzgebiet unterscheiden sich die Optimierungsziele jedoch deutlich: Weil es also mehr als ein Optimum gebe, so Zahn, sei es angebracht, die Speicherarchitektur in verschiedene Stufen zu unterteilen und sich die künftige Entwicklung anzusehen: COLD ist cold im Sinne von cool
Rechenzentren brauchen [besonders für Datenbankanwendungen, Anm. d. Red.] ganz viele I/Os (Input-Output-Operationen) und sehr viel Bandbreite. Diese Datenspeicher laufen immer, weshalb sie ständig Strom verbrauchen. Hot Storage. Das Problem solcher ständig laufender Festplatten sind die hohen Personalkosten für ihre Wartung. Denn ein Power-Management ist bei Festplatten, auf die immer und in hoher Frequenz zugegriffen werde, schlicht unmöglich. Am Beispiel Facebook erklärte Matthias Zahn das Einsparpotenzial liegt: 98 Prozent der hochgeladenen Fotos werden nie wieder angeschaut. Doch herauszufinden, welches die anderen zwei Prozent sind, sei unmöglich. Daher seien solche Datenspeicher immer "hot". Was Cost Optimized Linear Disk (COLD) bedeutet, machte Zahn anhand des Energieverbrauchs von Festplattenspeichern deutlich: Die Festplatte mit dem derzeit besten Preis-Leistungs-Verhältnis ist die 8-TB-Archivplatte von Seagate [STA8000S0012, Anm. d. Red.]. Sie unterbietet Flash bei den Kosten um das Achtfache. Durch SMR (Shingled Magnetic Recording), also durch sich wie Dachschindeln überlappende Magnetspuren auf den Platten (breit schreiben, schmal lesen), verdreifacht sie zwar die Speicherdichte, dafür ist sie weder performant noch effizient und insbesondere ungeeignet für viele Änderungen. Für lineare Schreibvorgänge, also zum dauerhaften Archivieren von Daten, die keiner Änderung mehr bedürfen, bietet sie eine klare Kostenoptimierung, so Zahn. Aber: "Eine Festplatte ist nicht billig, wenn sie immer laufen muss." Archiv-Platten könnten hingegen ganz abgeschaltet werden, wenn ihre Daten nicht gebraucht würden, und müssten lediglich ab und zu hochgefahren werden, um ein Verharzen der Spindellager zu verhindern. Wir glauben, dass Datenspeicher mit Null Ruheenergie und vernünftigen Zugriffszeiten am besten durch Linear Disk á la Tape realisieren lassen", erklärte Zahn. "Power-Management ist immer dann machbar, wenn Lokalität der Daten auch in der Zeit gegeben ist." Als weitere Vorteile der Linear Disk nannte Zahn Sollte ein bestimmter Datenblock benötigt werden, müsse eine schlafen gelegte Festplatte zwar hochgefahren werden, was Zeit im Bereich von Sekunden erfordere. "Wenn sie aber wieder läuft, sind Zugriffszeiten auf weitere Blöcke fast Null", so Zahn. COLD enables cold, cold spart Strom
"Wir glauben, dass 2020 30 Prozent der Daten in COLD-Inseln gespeichert werden", behauptet Zahn, und begründet das mit einer einfachen Rechnung: Um das für 2020 prognostizierte Speichervolumen von 40 Zetabyte bereit zu stellen, müssen zwei Milliarden typischer, 20 Terabyte fassender, Archivplatten installiert werden. Jede davon will einschließlich Overhead mit 15 Watt Energie versorgt werden, was einen Gesamtbedarf von 30 Gigawatt bedeutet. Das entspricht der Leistung von 30 Atomkraftwerksblöcken. Ein Drittel davon ließe sich mit COLD Storage einsparen, weil die Festplatten im COLD Storage ja nicht ständig laufen müssen. Das wiederum bringe wichtige Vorteile bei Wartung und Lebensdauer mit sich. Die Ersatz-Zyklen für die Massenspeicher verlängerten sich von drei auf zehn Jahre, gegenüber JBOD immerhin noch um das Doppelte. Unfuckable Storage
Werden als Linear Disks verbaute Festplatten dann noch an einem WORM-Controller (Write Once, Read Manytimes) betrieben, der das Überschreiben oder Löschen von Datenblöcken auf Hardware-Ebene verhindere, lasse sich ein praktisch nicht-kompromittierbarer Datenspeicher – "unfuckable Storage" – realisieren. Dann könne selbst ein mit allen Rechten ausgestatteter Systemadministrator Daten nicht mehr löschen. [In einem früheren TELI-Vortrag hatte Matthias Zahn dargelegt, dass der Großteil von Datenverlusten auf menschliche Fehler beim Datenlöschen zurück zu führen sei. Im Vergleich zu den Kosten durch Datenverluste seien die Kosten für zusätzlichen Speicherplatz fast schon vernachlässigbar, Anm. d. Red.] Die im Speichermedium integrierte Redundanz der von FAST LTA designten linear Disk-Arrays machen ferner ein zusätzliches Backup obsolet: In den Silent Bricks stecken jeweils 12 Festplatten, von denen bis zu acht ausfallen können, ohne dass es zu Problemen bei der Datenintegrität kommt. "Beim Erasure Resilent Coding, das auch in der Mars-Sonde der NASA eingesetzt werde, sind wir die ersten unter den Speicherherstellern", freut sich Zahn. [Erasure Resilent Coding bezeichnet ein mathematisches Verfahren zum Datenschutz, das Daten in Fragmente aufteilt, erweitert und neu mit redundanten Teilen codiert, die dann auf physikalisch getrennten Orten gespeichert werden. Ziel ist die zuverlässige Wiederherstellung von verlorenen Teilen aus Informationen anderer Datenteilen aus dem Verbund. Wird wegen höhere Effizienz zunehmend statt RAID verwendet, erfordert jedoch mehr Rechenleistung. Anm. d. Red.] Und obwohl nur rund die Hälfte der von FAST LTA verkauften Bricks und Cubes redundant betrieben würden (beispielsweise in zwei verschiedenen Brandabschnitten eine Gebäudes oder in verschiedenen Gebäuden) "haben wir seit es uns gibt, noch kein einziges Byte verloren", verweist Matthias Zahn mit Stolz auf die Ingenieursleistung seiner Firma. Eine mechanische Sperre im Rack der Silent Bricks und ein holographisches Siegel am Gehäuse jedes einzelnen der Silent Bricks verhindern, dass einzelne Festplatten unbemerkt aus einem Brick herausgenommen und außerhalb des Systems kompromittiert werden könnten. Allerdings räumte Zahn ein, dass es Leute gebe, die es verrückt mache, nichts löschen zu können – alte Schule eben. Aber WORM ist ja kein Muss, es sei denn in Anwendungsfällen, in denen Daten absolut revisionssicher gespeichert sein müssten. Das sei beispielsweise bei der Aufbewahrung digitaler Röntgenaufnahmen in Krankenhäusern und radiologischen Praxen der Fall, von deren Inhalt Diagnosen und Behandlungsmethoden – und im ungünstigen Fall Regressforderungen – abhängen. Solche Einrichtungen können auf PACS (Picture Archiving Control System) und ein revisionssicheres Dokumentenmanagement nicht verzichten. Nicht ohne Grund zählt laut Zahn die FAST LTA AG heute mindestens die Hälfte der deutschen Krankenhäuser zu ihren 2500 Kunden. Zur CeBIT 2016 will die Münchner Firma – neu – ein Secure NAS anbieten, das 300 Terabyte in einem Rack mit sechs Höheneinheiten unterbringt. Dessen Controller soll einen Datendurchsatz von mehr als einem Gigabyte pro Sekunde aufweisen, ein einzelner Brick einen Durchsatz von 600 bis 700 Megabyte pro Sekunde. Hidden Champion vor der TELI
Kaum ein technischer Bereich ist so un-sexy wie die Archivierung von Daten, und doch kommt in Zeiten der fortschreitenden Digitalisierung keinem Bereich so viel Bedeutung bei. Denn das ach so beliebte weil kosteneffiziente Speichern in der Cloud kommt für viele Einsatzbereiche nicht in Frage: nicht nur in Bayern gibt es eine Vorschrift, Daten in den Behörden immer vor Ort zu speichern. Dem Regionalkreis Süd der Der TELI ist es erneut gelungen, mit der FAST LTA AG einem Hidden Champion ein Forum zu geben, um im Internationalen PresseClub München seine innovative und nützliche Technologie branchenübergreifend präsentieren zu können und die Presse mit unverzichtbaren Informationen über technologische Trends im Zeitalter der fortschreitenden Digitalisierung zu versorgen.

Ansgar Hinz wird neuer VDE-Chef 26 Jan 2016 5:59 AM (9 years ago)

Frankfurt / Main – Zum 1.4.2016 wird Ansgar Hinz (50) Mitglied des VDE-Vorstands und zum 14.4.2016 neuer VDE-Vorstandsvorsitzender. Hinz folgt Dr. Hans Heinz Zimmer nach, der altersbedingt in den Ruhestand geht. Dr. Bruno Jacobfeuerborn, Präsident des Verbandes, verkündet für das VDE-Präsidium: "Mit Ansgar Hinz haben wir einen international erfahrenen Manager gefunden, der auf zahlreiche Erfolge in der Geschäftsfeld- und Organisationsentwicklung sowie der Steuerung dezentraler Einheiten weltweit zurückblicken kann" Als Vorstandsvorsitzender wird Ansgar Hinz die VDE-Gruppe mit weltweit 1.200 Mitarbeitern leiten, zu der das VDE Prüf- und Zertifizierungsinstitut gehört, und als Elektroingenieur die Geschicke des technisch-wissenschaftlichen Verbandes mit seinen 35.000 Mitgliedern und 1.300 Unternehmen. Der neue VDE-Vorstandsvorsitzende verfolgt das Ziel, den VDE als Dienstleister und Kompetenzzentrum für die Elektro- und Informationstechnik international weiter zu stärken.

Vor seiner Berufung zum VDE-Vorstandsvorsitzenden hat Ansgar Hinz mehr als 15 Jahre als Geschäftsführer der MESSKO GmbH in Oberursel  verantwortet, ein Unternehmen der Reinhausen Unternehmensgruppe. Bereits seit dem Jahr 1994 ist Hinz in verschiedenen Funktionen für Reinhausen tätig gewesen. Beginnend mit der Leitung des internationalen Marketings und der Übernahme der CSO-Americas Funktion, in der er für die Märkte Nord-, Zentral- und Südamerika mit seinen Landesgesellschaften in Jackson und Sao Paulo verantwortlich war, hat er von 2009 bis 2011 die Landesgesellschaft in Montreal, Kanada gegründet und geführt. In den Jahren 2010 bis 2013 hat er darüber hinaus den Reinhausen-Geschäftsbereich Power Distribution, rund um die Geschäftsaktivitäten Smart Grids, Erneuerbare Energien und neue Verteilnetztechnologien, aufgebaut. Seit Ende 2012 zeichnet Hinz, parallel zu seiner Tätigkeit in der Geschäftsführung der Messko GmbH, für das Industriegeschäft in den Marktsegmenten Sensorik, Automatisierung und Analytik&Diagnostik als Geschäftsbereichsleiter der Maschinenfabrik Reinhausen in Regensburg verantwortlich. Ansgar Hinz hat an der RWTH Aachen Allgemeine Elektrotechnik studiert, bevor er seine Karriere bei der Reinhausen Unternehmensgruppe in Regensburg gestartet hat. Über den VDE:
Der VDE Verband der Elektrotechnik Elektronik und Informationstechnik ist mit 36.000 Mitgliedern (davon 1.300 Unternehmen, 8.000 Studierende, 6.000 Young Professionals) und 1.200 Mitarbeitern einer der großen technisch-wissenschaftlichen Verbände Europas. Der VDE vereint Wissenschaft, Normung und Produktprüfung unter einem Dach. Tätigkeitsschwerpunkte des Verbandes sind die Sicherheit in der Elektrotechnik, die Erarbeitung anerkannter Regeln der Technik als nationale und internationale Normen sowie die Prüfung und Zertifizierung von Geräten und Systemen. Das VDE-Zeichen, das 67 Prozent der Bundesbürger kennen, gilt als Synonym für höchste Sicherheitsstandards. Weitere Schwerpunkte sind der Technikwissenstransfer, die Forschungs- und Nachwuchsförderung in den Schlüsseltechnologien Elektrotechnik, Elektronik und Informationstechnik und ihrer Anwendungen. Die Technologiegebiete des VDE: Informationstechnik, Energietechnik, Medizintechnik, Mikroelektronik, Mikrotechnik sowie Automation.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

Test Barracuda Nextgen Firewall 6.1 Schnell, sicher und effizient durch das VPN 24 Jan 2016 6:11 PM (9 years ago)

Wer sich zum Kauf eines digitalen Radio-Empfängers entschließt, sieht sich mit einem breitgefächerten Angebot konfrontiert. Digitalradio ist nicht gleich Digitalradio, denn die vielen Geräte unterscheiden sich anhand ihrer Funktionen und Angebote, die als Auswahlkriterium dienen können. Nicht alle DAB-Empfänger sind internetfähig, und nicht überall ist der reibungslose Radio- und Web-Radio-Betrieb ohne zusätzliche Geräte wie externe Antennen möglich. Haupt-Kriterien bei der Auswahl sind aber in jedem Fall die Anschluss-Möglichkeiten und die Kompatibilität zu den diversen Übertragungs-Standards. In unserer Marktübersicht finden Sie ausschließlich Geräte, die LAN- und WLAN-fähig sind und UKW und DAB gleichermaßen beherrschen. Daraus ergab sich eine Aufteilung in vier Kategorien: Internetradios mit und ohne Docking-Funktion, Kompaktanlagen, Tuner und tragbare Radios.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

Frankfurt am Main / Broomfield, USA – Der US-amerikanische Kommunikationsdienstleister Level 3 meldet, dass er mit dem Websuche- und Werbungs-Weltmeister Google eine mehrjährige Zusammenschaltungsvereinbarung getroffen hat. Fortan können die beiden Unternehmen wechselseitig ihre weltweiten Datennetze gebührenfrei nutzen. Keine Rechnung – keine Steuern. Das dem Interconnection Agreement zugrunde liegende Bit-Meilen-Konzept soll sicherstellen, dass beide Unternehmen einander jeweils gleich viel Durchleitungskapazität zur Verfügung stellen. Ziel ist es, mit Hilfe der Infrastruktur des Partners näher an die eigene Kundschaft heranrücken zu können. Außerdem profitieren die Unternehmen davon, dass sie zusammen auf mehr Netzübergabepunkte zugreifen und damit die wachsende Nachfrage nach Internet-Diensleistungen besser bedienen können. Die globale IP-Backbone-Kapazität von Level 3 beträgt eigenen Angaben zur Folge mehr als 42 Terabit pro Sekunde. Kamran Sistanizadeh, Vice President Network Operations bei Google, läßt sich mit den Worten zitieren: „Google investiert jedes Jahr in seine Infrastruktur, um seinen Kunden und Endnutzern Inhalte und Dienstleistungen möglichst nah bereitzustellen. Diese Investition in die Infrastruktur ist die Grundlage für Verbindungen zu Netzwerkanbietern auf der ganzen Welt und wir freuen uns über weitere Netzwerkanbieter, die mit Google ähnliche Vereinbarungen schließen". Paul Savill, Senior Vice President Core Product Management bei Level 3, meldet: „Die Bit-Meilen-Zusammenschaltungsvereinbarung mit Google unterstreicht die Wichtigkeit eines fairen, gleichberechtigten Abkommens, das Internetnutzern weltweit zugutekommt - für jedes Netzwerk, egal ob content-basiert, Backbone oder Last Mile. Beide Unternehmen freuen sich auf die Fortsetzung der engen Zusammenarbeit und engagieren sich, um sichere, skalierbare, zuverlässige und schnelle Internetservices zu ermöglichen." Erst im Januar 2016 hatte Level 3 bekannt gegeben, zusammen mit dem globalen Gaming-Unternehmen Valve (Halflife, Counterstrike, Left4Dead, ...) an der Aufrüstung der Netzwerk-Infrastuktur um 100 GBit/s-Ports für Internet-Dienste zusammen zu arbeiten, um dessen Social-Enternainment- und Gaming-Plattform Steam mehr Bandbreite bereit stellen zu können. Nach Angaben von Level3 liegt das Datenaufkommen von Steam weltweit bei 450 bis 500 Petabyte (= Millionen Gigabyte) pro Monat. Das Level-3-Netzwerk mit 100 GBit/s Internetports steht in 26 Märkten in Nordamerika und Europa zur Verfügung. Die Marktforscher von Superdata hatten 2015 dem Gaming-Markt ein Volumen von mehr als 74,2 Milliarden US$ (gut 68 Mrd €) attestiert.

SafeAdapt will Elektroautos zur Selbstheilung im laufenden Betrieb verhelfen 18 Jan 2016 9:44 AM (9 years ago)

München – Die Elektromobilität kommt nicht vom Fleck, das Ziel, bis 2020 in Deutschland eine Million Stromer auf den Straßen zu haben, ist erhgeizig. Während die einen die Schuld auf das Henne-Ei-Problem (zu wenige Fahrzeuge im Markt, also kein rascher Ausbau der Lade-Infrastuktur vs. zu wenig Lade-Infrastruktur, daher zu wenig eMobile-Verkäufe) schieben, arbeiten andere bereits mit Hochdruck an der Lösung von Problemen, die noch gar nicht ins Bewusstsein der Öffentlichkeit gedrungen sind: Was tun bei Fehlverhalten der Steuerlektronik eines selbstfahrenden Autos? Bei 130 km/h mal eben neu booten, wie PC nicht anders gewohnt, kann die Lösung nicht sein – die analoge Physik der Massenträgheit kennt keine Auszeit. Also arbeiten Forschungsinstitute und Industrie an einer adaptiven Software-Architektur für künftige Elektrofahrzeuge, die selbständig im laufenden Betrieb Störungen korrigieren kann – zugunsten von mehr Zuverlässigkeit, mehr Sicherheit und mehr Kosteneffizienz. Den Bemühungen des Fraunhofer Instituts für eingebette Systeme und Kommunikationstechnik (ESK) liegt das von der EU geförderte Forschungsprojekt "SafeAdapt" zugrunde. Es verfolgt das Ziel, eine adaptive Elektrik-/Elektronik-Fahrzeug-Architektur (E/E) zu entwickeln, die Fehler sogar im laufenden Betrieb selbständig kompensiert. Gleichzeitig will das Projekt Entwurfs- und Absicherungsmethoden für eine derartige Architektur erforschen, um bei der Weiterentwicklung dem Sicherheitsstandard ISO 26262 zu genügen. Nach der erfolgreichen Arbeit an Spezifikationen, Anforderungen und Anwendungsfällen strebt das Projekt nun der nächsten Stufe zu: Der Realisierung eines Hardware-Prototypen und eines Fahrsimulators, prototypischer Demonstratoren also, wie das erste Taxi für tropische Megastädte, EVA, ein Projekt der TU München, ebenfalls mit Fraunhofer-Beteiligung. Denn einer der Demonstratoren ist ebenfalls ein vollständige Elektrofahrzeug, das vor allem die "Fail-Operational-Eigenschaften" der neuen Software-Hardware-Architektur, die für ein künftiges automatisiertes Fahren erforderlich ist, veranschaulichen soll. Kuz: Bei einem Fehler muss das Auto (respektive dessen Komponenten) so lange weiter funktionieren, bis das Fahrzeug in einen sicheren Zustand gebracht ist. Als Demonstrator dient ein Roding-Sportwagen, den Siemens mit der E/E-Architektur RACE ausgestattet hat, un der nun um SafeAdapt erweitert werden soll. Parallel dazu arbeitet das Fraunhofer ESK auch an Konzepten des Automotive-Standards AUTOSTAR. So wiull sich SafeAdapt als hersteller- und technologie-unabhängige Lösung für künftige Fail-Operational-Bordnetze präsentieren. Der zweite Demonstrator basiert auf dem Fahrsimulator "Dynacar" von Technalia. Er dient der virtuellen Erprobung der SafeAdapt-Technik in Hinblick auf Energie-Effizienz. Sobald die Ladung des Elektromobil-Akkus unter eine bestimmte Schwelle sinkt, kann das System Funtionen ohne Sicherheits-Relevanz, etwa Komfort- und Entertainment-Funktionen. Wichtiger aber dürfte die SafeAdapt-Evaulierung selbst sein, etwa um zu klären, wie lange die Steer-by-Wire-Lenkung adaptieren darf, damit der Fahrer das Fahrzeug unter Kontrolle behält. SafeAdapt-Projekt-Partner sind

 Mehr Informationen hält die Projekt-Web-Seite www.safeadapt.eu unter dem Stichwort "Deliverables" bereit.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

E3, das kleinste KWKK-Kraftwerk der Welt passt in einen Standard-Container 18 Jan 2016 8:18 AM (9 years ago)

Düsseldorf, München, Los Angeles, USA – "Stellen sie sich vor, Sie könnten ihre Produktions-Abfälle in saubere Energie verwandeln – direkt vor Ort", bewirbt Entrade-CEO Julien Uhlig das jüngste Produkt seiner Firma, das KWKK-Kraftwerk E3 trigeneration und ergänzt: "Das neue E3-Kraftwerk senkt die Energiekosten und verbessert nachhaltig den CO2-Fussabdruck." KWKK steht für Kraft-Wärme-Kälte-Koppelung und damit für die effizienteste Art, Verbrennungswärme in Nutzenergie zu verwandeln. Für die Erzeugung von elektrischer und thermischer Energie stellt es eine echte Alternative zu Diesel-Generatoren dar. Dieses kompakte Biomasse-Kraftwerk stellt ein ein Glanzstück deutscher Ingenieurskunst, gepaart mit amerikanischem Pioniergeist dar, denn es erlaubt die dezentrale Installation von Mikro-Netzen, die wetterunabhängig und dennoch mit erneuerbarer Energiebefeuert werden. Im dezember 2015 hatte Entrade im LA Kretz Innovation Center (LACI)  in Los Angeles ein solches Mikro-Netz aufgebaut, bestehend aus einer Solaranlage, Batteriespeichern und dem E3 trigeneration, und so zeigen können, dass die Anlage netzunabhängig zur Energieversorgung eines größeren Gebäudes beitragen kann. Technisches Herzstück der Anlage ist ein vom Entrade-Ingenieurs-Team im Pfaffenhofen an der Ilm entwickelten Hochtemperatur-Vergasunsgprozess, der aus festen Biomasse-Abfällen regnerative Energie erzeugt. Derzeit die Anlage bereits für die kontinuierliche Verarbeitung von mehr als 100 Arten fester, preiswerter Reststoffe, etwa Nussschalen, eingesetzt werden. Entrade liefert das E3-Kraftwerk schlüsselfertig im Standard-20-Fuß-Container an, der maximal zwei Aggregaten Platz bietet.Ein Aggregat soll bis zu 25 Kilowatt elektrische sowie 60 Kilowatt thermische Energie bereit stellen können, au der die Adsorptions-Kältemaschine der SorTech AG aus Halle an der Saale bis zu 30 Kilowatt Kälte generieren kann. Laut Entrade reicht die Leistung eines E3-Aggregats aus, um in Europa bis zu 30 Einfamilienhäuser oder eine kleine Fabrik zu versorgen oder in Entwicklungs- oder Schwellenländern ein ganzes Dorf. „Getrieben von der Vision, eines Tages die Abfall- und Energieprobleme der Welt zu lösen, hat unser Ingenieursteam das Biomasse-Kraftwerk nicht nur miniaturisiert, sondern ganz neu auf ein umweltfreundliches Niveau gehoben. Nun zeigen wir der Welt: Hier ist das kleinste KWKK-Kraftwerk der Welt, das dank seines Abfall-Antriebs erheblichen Einfluss auf das Leben von Millionen Menschen haben wird, die heute noch keinen Zugang zu Energie bzw. keinen Zugang zu sauberer Energie haben. Die starke Nachfrage aus dem Markt bestärkt uns darin, unseren Weg weiter zu gehen: E3 trigeneration ist bereit für die Massenprduktion!“, erläutert Entrade-CEO Julien Uhlig die Vorteile des E3 trigeneration:

Technische Ausstattung:
Das E3-Kraftwerk wird als schlüsselfertige Anlage in einem Container geliefert und kann in weniger als einem Tag vor Ort in Betrieb genommen werden. Der 20-Fuß-Container kann eine oder zwei E3-Aggregate aufnehmen um wahlweise 25 oder 50 kW Strom zu erzeugen, ausreichend für den Elektrizitätsbedar von 30 respektive 60 Einfamilienhäuser in Europa oder 400 bis 800 Menschen in Entwicklungsländern. Jedes E3-Kraftwerk überwacht das Entrade Operation Center in Graz rund um die Uhr aus der Ferne. Preis & Verfügbarkeit:
Das KWKK-Kraftwerk mit einem E3-trigeneration-Aggregat (Strom, Wärme, Kälte) kostet in Europa weniger als 200.000 Euro. Die Massenproduktion in Sachsen von 45 Einheiten pro Monat respektive 600 Einheiten im Gesamtjahr soll Anfang 2016 starten. Im österreichischen Graz wird derweil die Verifizierung geeigneter Reststoffe als E3-Fuel dynamisch weiter verfolgt. Über Entrade
Die Entrade AG wurde 2009 gegründet, um kleine Biomasse-Kraftwerke zu entwickeln, die Abfallprodukte für die Erzeugung von Strom, Wärme und Kälte verwerten. Seit dem 30.07.2014 ist die Entrade AG am NASDAQ Private Market gelistet, Teil des Los Angeles Cleantech Incubator LACI und des Silicon-Valley-Programms des German Accelerators. Gemeinsam mit seinem Engineering-Unternehmen Agnion Energy wird Entrade von 40 Regierungsprogrammen unterstützt und managt ein Programm der Deutschen Gesellschaft für internationale Zusammenarbeit GIZ in Serbien.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

Test Talend Integration Cloud 16 Dec 2015 6:07 PM (9 years ago)

Wer sich zum Kauf eines digitalen Radio-Empfängers entschließt, sieht sich mit einem breitgefächerten Angebot konfrontiert. Digitalradio ist nicht gleich Digitalradio, denn die vielen Geräte unterscheiden sich anhand ihrer Funktionen und Angebote, die als Auswahlkriterium dienen können. Nicht alle DAB-Empfänger sind internetfähig, und nicht überall ist der reibungslose Radio- und Web-Radio-Betrieb ohne zusätzliche Geräte wie externe Antennen möglich. Haupt-Kriterien bei der Auswahl sind aber in jedem Fall die Anschluss-Möglichkeiten und die Kompatibilität zu den diversen Übertragungs-Standards. In unserer Marktübersicht finden Sie ausschließlich Geräte, die LAN- und WLAN-fähig sind und UKW und DAB gleichermaßen beherrschen. Daraus ergab sich eine Aufteilung in vier Kategorien: Internetradios mit und ohne Docking-Funktion, Kompaktanlagen, Tuner und tragbare Radios.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

Z-Wave Europe gewinnt Mike Lange als neuen Marketing- und Vertriebsleiter 9 Dec 2015 1:44 AM (9 years ago)

Hohenstein-Ernstthal – Mike Lange verstärkt seit dem 1. Dezember 2015 als Marketing- und Vertriebs-Leiter die Z-Wave Europe GmbH. Sie gilt als größter europäischer Distributor für Smarthome-Geräte auf Basis der Funktechnik Z-Wave. Der Diplom-Ingenieur für Elektro- und Informationstechnik hat aus dem Vertrieb und dem Marketing von Netzwerk-Produkten und Heimautomations-Anwendungen viel Erfahrung vorzuweisen.  In den Jahren 1996 bis 2005 arbeitete er beim Systemintegrator Controlware als& Produktmanager und später als Marketing-Direktor. Nach seinem Wechsel zum Netzwerk-Spezialisten D-Link bekleidete er dort Positionen in den Bereichen Business Development, Produktmarketing und Vertrieb. Als Country Manager verantwortete Mike Lange von 2012 bis 2014 den kompletten Vertrieb, Marketing, Produktmanagement und Customer Service für die gesamte DACH-Region. Zuletzt übernahm er den Aufbau des Geschäftsbereiches „Smart Home & Cloud Services“ für Mittel- und Osteuropa. Während dieser Zeit war es ihm gelungen, eine Reihe bedeutsamer Smarthome-Projekte zu gewinnen. „Wir freuen uns sehr, mit Mike Lange einen Kenner der Smart Home und Consumer IT Branche für die Leitung unserer Vertriebs- und Marketingabteilung gewonnen zu haben. Mit seiner langjährigen Erfahrung im internationalen Geschäft mit Netzwerk-Technik wird er unsere Position im schnell wachsenden Smart Home Markt weiter stärken“, sagt Elke Geisler, Geschäftsführerin der Z-Wave Europe GmbH. Die neu geschaffene Position soll dem Unternehmen helfen, auf das stetig wachsende Interesse am Thema Smarthome und die steigenden Anforderungen in der Kundenbetreuung reagieren zu können. Zu Mike Langes Zielen zählt ferner der Ausbau des europäischen Geschäfts. Das Nachrichtenmagazin Focus hatte erst kürzlich zusammen mit Statista die Rangordnung der 500 wachstumsstärksten Unternehmen zwischen 2011 und 2014 ermittelt. In der Kategorie IT und Software zählt die Z-Wave Europe GmbH mit 119 Prozent zu den Top-5-Unternehmen, zitiert die Z-Wave-Europe-Pressestelle aus der Studie „Wachstumschampions 2016“.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

Gesundheits-Apps auf Krankenschein 8 Dec 2015 3:31 PM (9 years ago)

"Mind-Apps: Elektronische Helfer bei Seelenleiden – Chancen, Risiken und Nutzen" – unter dieses Motto hatte die Technisch-literarische Journalistenvereinigung (TELI e.V.) ihren November-Jour-fixe 2015 im Internationalen PresseClub München gestellt, den sie in zusammen mit der Münchner Angstselbsthilfe MASH veranstaltet hatte. Fast 30 Interessierte hatten sich dort von Profis informiert, ob und welche Zukunft Apps haben können, zumal immer mehr Menschen ihrer Vital-Funktionen mit elektronischen Begleitern überwachen. Im Fokus der Fragen standen nicht nur die medizinische Wirksamkeit, sondern auch Themen wie Privatsphäre, Datenschutz und welches Einparpotenzial Krankenkassen solchen Apps beimessen.  Mind-Apps sind, wie Gesundheits-, Versorgungs- und Sport-Apps, nichts weiter als digitale Begleiter von Menschen, die mit Technik, seien es Smartphones oder Spezialgeräte, im Dialog stehen. So erhalten sie Feedback über ihr Tun und können sich selbst in die Lage versetzen, es entsprechend zu steuern. Risiko-Analyse nennt das der Fachmann, Selbstausspähung der Zyniker. Feedback erhoffen sich auch die Krankenversicherer! Mit Gesundheits-Apps können sie sich unabhängig von medizinischen Studien zunehmend wertvolle Informationen über die Wirksamkeit von Medikamenten und Therapien verschaffen, alternative Behandlungsmethoden testen, sich ein digitales Bild von ihren Versicherten zu verschaffen und insgesamt Kosten sparen.  TELI und MASH hatten aus der schier unüberschaubaren Vielzahl von Gesundheits-Apps ausschließlich solche gegen seelische Beschwerden oder Erkrankungen, so genannte Mind-Apps, zur Diskussion gestellt. Unter der Moderation des TELI-Vorsitzenden Arno Kral und der Ko-Moderation des MASH-Geschäftsführers Christian Zottl stellten sich eine Expertin und drei Experten den engagierten, teilweise besorgten Fragen der Öffentlichkeit:

Nach rund zehnminütigen Eingangsstatements der vier Panellisten berichtete Christian Zottels aus der Praxis über eigene Erfahrungen mit der Berner Mind-App gegen soziale Phobien. Es folgten zwei Frage- und Antwort-Runden, einmal zum individuellen Nutzen von Mind Apps, deren Chancen und Risiken, und einer weiteren zu gesellschaftlichen und technischen Implikationen. Hilfe gegen die Angst vor der Angst, etwa im Supermarkt
Morschitzky berichtete, wie seine App gegen Panik-Attacken entstanden war. Verlagsleiterin Dr. Mathilde Fischer und Stefan Moser, Leiter Digital Publishing, waren bei der Veranstaltung anwesend. Der seit vielen Jahren praktizierende Gesundheitspsychologe, Psychotherapeut und Buchautor Dr. Morschitzky berichtete, dass in Österreich der Bedarf an digitalen Selbsthilfewerkzeugen weit größer ist in Deutschland, weil die Alpenrepublik keine Kassenverträge mit Psychotherapeuten kenne. Hilfesuchende müssen für die 23 dort zugelassenen psychotherapeutischen Methoden 21,80 Euro pro Stunde zahlen. Daher habe ihm der österreichische Verlag Fischer & Gann angetragen, sein therapeutisches Know-How nicht nur in sein neues Buch, sondern auch in eine interaktive Mind-App einfließen zu lassen. Hauptmotivation: Im Gegensatz zum Buch können Betroffene seine App „Endlich Leben ohne Panik“ "als Coach im Ohr in extremen Situationen, etwa im Supermarkt“ einsetzen. Es gibt sie sowohl in Apples App- als auch in Googles Play-Store für acht Euro. Sie entspricht inhaltlich Teil 3 des neuen Morschitzky-Buches "Endlich Leben ohne Panik – die besten Hilfen bei Panikattacken" (Fischer & Gann, ISBN 978-3-903072-05-3). Die App enthält 80 Audiodateien und belegt im Smartphone 416 MByte. Als Sprecher für die sechs Stunden Text – er entspricht 160 Seiten im Buch – hatte Morschitzky einen bayerischen Schauspieler gewinnen können. Gestaltet ist die Mind-App als Notfallkoffer, der acht Abschnitte mit je zehn akustischen Hilfestellungen enthält. Im Gegensatz zum Buch können Nutzer  jederzeit selber Memos aufsprechen. Das Programm könne „Hilfe gegen die Angst vor der Angst“ leisten, sagte der Referent, und leichte Fälle im Ansatz heilen. Aber: Eine Psychotherapie ersetze die App nicht, betonte Morschitzky. Sie sei, wie das Buch, eher als Vorbereitung auf oder zur Begleitung einer therapeutischen Behandlung gedacht. Er erwartet, dass "die App auch bei der Nachsorge einer Psychotherapie hilft, das Rückfall-Risiko zu verringern". Auslagern von Therapiestunden auf die App
Im zweiten Impuls des TELI-MASH-Abends berichtete Timo Stolz, dass die Universität Bern schon lange Selbsthilfeprogramme für stationäre PC einsetze. Dazu lägen viele Studien vor, nicht aber zu mobil einsetzbaren Apps. Die lieferten unlängst wichtige neue Erkenntnisse. Ein Test der App "Blended" zum Aufbau positiv-bestärkenden Verhaltens ergab, dass "sechs von zehn wöchentlichen Therapiestunden an die App ausgelagert" werden könnten, sagte Stolz: "Das wirkt genauso gut und entlastet die Therapeuten zeitlich." In Bern war ferner die App „mobylize“ App für die unbegleitete Anwendung entwickelt worden. Die hat, so Stolz, Vor- und Nachteile: "Unbegleitete Programme sind zwar attraktiver, weil der anonyme Zugang zu ihnen eine niedrigere Eintrittsschwelle aufweist als die Suche nach einem Therapieplatz. Bei [von einem Therapeuten oder einer Therapeutin, Red. ] begleiteten Anwendung liegt die Abbruchrate bei 40 Prozent, während die Dropout-Rate bei unbegleiteten Programmen 70 Prozent beträgt". Stolzens‘ App "Sophie"gegen soziale Phobien einschließlich Prüfungsangst habe sich als Computerprogramm bereits bewährt, sagte der Diplompsychologe. Nun komme sie an der Universität Bern auch als mobile App in zwölfwöchigen Selbsthilfeprogrammen zum Einsatz. Sie hilft den Anwendern beispielsweise, den Gesprächsaufbau in Kaffeepausen beherrschen zu lernen. Zu Interaktion motiviert Sophie ebenfalls, etwa beim Führen eines Tagebuchs. Im Gegensatz zur stationären PC-App motiviert die Menschen, ihre Beobachtungen unterwegs sofort aufzuschreiben. "Nach unseren Erkenntnissen hilft [so] die App etwas schneller als das PC-Programm", schloss Stolz. Google und Versicherungen wollen Datenschätze heben
"Apps bieten eine neue Dimension der Erreichbarkeit – auch anonym", eröffnete Kramer ihren Impuls. Sie hatte umfangreiche Daten zu Mind-Apps mitgebracht. "In den App- und Play-Stores existieren bereits circa 140 000 Gesundheits- und Medizin-Apps", überraschte Kramer ihre Zuhörer: "Damit kommt jede zwanzigste App aus diesem Bereich." Die Download-Raten sind in den letzten Jahren beträchtlich gestiegen: Von 1,7 Milliarden im Jahr 2013 auf 2,3 Milliarden in 2014 auf 3,0 Milliarden im laufenden Jahr 2015. Dennoch würden nur rund ein Viertel davon in relevantem Ausmaß genutzt. Relevant bedeutet: mehr als 1000 Mal herunter geladen, von mehr als 1000 Usern verwendet oder mit mehr als zehn Bewertungen versehen. Die Nutzerbewertung ist das wichtigste Kriterium für die Auswahl einer App. Ein zweites Auswahlkriterium ist die Kategorien-Abgrenzung nach Zielgruppen:  "Nur ganz wenige Apps sind Medizin-Apps, die eine behördliche Zulassung brauchen", erläuterte die Referentin. Die Wirksamkeit von Mind-Apps belegte die Studie "depressis". Danach helfen sie, Krankheitskosten und Depressivität zu verringern, erklärte Kramer. GPS-Daten, die etwa die Michigan-Studie benutzt, zeigen: Eine Verminderung der Beweglichkeit korreliert mit dem Depressions-Grad. Aus Nutzersicht seien für die Qualität einer App der Datenschutz ganz besonders wichtig, sagte Kramer. Leider lieferten dazu nur die wenigsten Hersteller Angaben. Bei den Entspannungs-Apps seien es nur vier Prozent, bei den Health-Apps zwei von drei. Schwierig sei es derzeit noch, so die professionelle App-Testerin, die Vertrauenswürdigkeit einer App zu erkennen. Helfen könne dabei eine von Sanawork erarbeitete Checkliste. Zur höchsten Risikoklasse zählten etwa die Hälfte der Diabetes-Apps. Rund 400 Health-App-Testberichte finden sich auf der durch Studien finanzierten Online-Plattform Healthon, laut Kramer, wie auch ein App-Report für Krankenkassen. Insgesamt würden Health-Apps wie auch das Self-Tracking per Fitness-Armband das Wissen über den Lebensstil eines Menschen verbessern. Die erste Health-App auf Rezept ist seit April 2014 die Caterna Sehschulung. Eine weitere, Tinnitracks, dient der Tinnitus-Therapie. Diese App hat die TK evaluiert, berichtete Kramer, und für so gut befunden, dass sie heute deren Kosten erstattet. In den USA sei eine zunehmende Kooperation von Google mit Versicherungen zu beobachten, fuhr Kramer fort. Auch mit Pharmaunternehmen wie Roche oder Software-Hersteller wie SAP werde die Zusammenarbeit enger. Der Grund in Kramers Sicht: "Der Schatz Big Data muss richtig gehoben und in die Regelversorgung überführt werden." Apps sind ähnlich wirksam wie Anti-Depressions-Therapien
Damit lag der Ball bei Klaus Rupp von der TK. "Eine Solidargemeinschaft wie die gesetzliche Krankenkasse will Eigenverantwortung stärken", begann er. Apps ermöglichten Zugang zu qualitativ hohen Gesundheitsinformationen von mehr als neun Millionen Menschen. So viele sind bei der TK versichert. Von diesen Daten könnten in Rupps Meinung insbesondere ältere Menschen profitieren. Zweiflern an der Vertrauenswürdigkeit von Apps empfahl er Healthon, "wegen medizinischer Exzellenz", auch  wegen gemeinsamer Entwicklungen mit der Charité in Berlin. Seit Jahren gebe es dort bereits Coaching-Programme für den PC, gegen Kopfschmerz oder Burn-Out, die jeder autonom selbst verwenden könne. "Die haben 400 000 Teilnehmer", sagte Rupp.  Er verwies auf ein grundlegendes digitales Problem, dem Ungleichgewicht "in der Kommunikation zwischen Patient und Arzt": Patienten wollten digital Termine vereinbaren, Praxen analog telefonisch. Daher habe die TK eine gemeinsame Plattform für Buchungssysteme geschaffen. Ernüchterndes Ergebnis: lediglich 3000 teilnehmende Ärzte – bei 150 000 Arztpraxen in Deutschland. Andere digitale Felder hat seine Kasse dafür erfolgreicher bestellen können: "Erste Ergebnisse zeigen, dass es in seiner Wirkung mit einer Psychotherapie vergleichbar ist", gab Rupp bekannt. Das ermutigt die Krankenkassen, andere Beschwerden "app-lativ" anzugehen, seien es Stottern, Lungenerkrankungen, Herz-Insuffizienz. Beim Thema Datenschutz hob der TK-Sprecher die Datensparsamkeit hervor. Beim Depressions-Coach etwa interessierten nicht die Inhalte der digital-therapeutischen Sitzungen, sondern einzig deren Ergebnis, so Rupp. Deshalb lege die TK Wert auf Apps, die sich in Datensparsamkeit hervortun: "Die Pusteblume-App kommt ganz ohne soziale Daten aus, hilft aber der Uni Wien und der Charité bei Allergie-Analysen", berichtete er, und: "Beim Depressions-Coach weiß nicht einmal der Betreiber, wer Herr Müller ist." Datensparsamkeit sei aber auch immer Eigenverantwortung. Sozial-Phobie-App auf Prüfstand der Münchner Angstselbsthilfe MASH
Mitveranstalter Christian Zottl von der MASH berichtete über den App-Test. Keiner aus der 20-köpfigen Gruppe „Soziale Phobie“, sämtliche unter 25 Jahren alt und Smartphone-affin, habe sich am Sophie-Test beteiligen wollen. Daher könne er nur über seine eigenen Erfahrungen mit der Anti-Soziophobie-App berichten. Dass die App aus einer vertrauenswürdigen Institution, der Universität Bern stammt, die keine kommerziellen Interessen hege, hat Zottl bei seinem Test der App beruhigt. Positiv fand er ihr ansprechendes graphische Layout, gelungen deren modularer und didaktisch gut gemachter Aufbau. Sie gebe ihrem Anwender viel Gelegenheit zur Selbst-Reflexion sowie Entspannungsübungen. Sogar die Motivation zum Nutzen der App sei didaktisch gut umgesetzt worden, fand der MASH-Tester. Wichtig sei jedoch bei der Nutzung der App die Begleitung durch einen Therapeuten, der mehr Bindung vermittle als die reine Maschine, hob Zottl hervor. Als negativ wertete er, dass ihm die App viel zu lesen aufgebürdet habe, was viele Personen abschrecken könnte. Zu unpersönlich war für ihn die Interaktion mit der App; und ein hohes Maß an Selbstdisziplin sei erforderlich, sie fortlaufend zu nutzen, insbesondere beim Wiedereinstieg nach mehrwöchigem urlaubsbedingten Aussetzen. Weil sie der Anti-Malware-Scanner Avira als gefährlich eingestuft hat, empfand der Selbsthilfevertreter die App auch als ein wenig bedrohlich. Christian Zottls Fazit für die Sophie-App: Gutes Tool für Selbsthilfe mit niedrigschwelligem Zugang, kontraproduktiv möglicherweise, weil sie verhindern könnte, dass Angstbetroffene Selbsthilfegruppen oder Therapeuten aufsuchten. Grundsätzlich sehe er es mit Sorge, dass eine EU-Verordnung die Zweckbindung per App erhobener Daten abschaffen wolle und App-Anbieter die gesammelten Daten weiter verkaufen dürften. Datenschutz durch PIN-Abfrage, Verschlüsselung und Zugangs-Codes
Zottls Datenschutzbedenken ermutigten kritische Fragen aus dem Publikum. Wie etwa die Sophie-App gesichert sei? "Der Zugang erfordert immer die Eingabe einer PIN. Ferner setzen wir sowohl auf On-Device-Verschlüsselung, auf eine verschlüsselte Datenübertragung zu unserem Server und dafür, dass die App den Ziel-Server über dessen IP-Adresse und nicht über dessen URL [Klarnamen des Server, Anm. d. Red.] erfolgt", versicherte der Erfinder. So sei sichergestellt, dass nur der Nutzer Zugang zur App und den auf dem Gerät gespeicherten Daten habe. Das Verschleiern der URL sei besonders beim Einsatz der App am Arbeitsplatz wichtig. Genereller antwortete Klaus Rupp von der TK: "Unser Datenschutz von Sozialdaten hat sich jahrelang bewährt. Wir stehen ohnehin als gesetzlicher Versicherer im Dialog mit dem BSI [Bundesamt für Sicherheit im Informationswesen, Anm. d. Red.]. Eine BSI-Zertifizierung ist für uns eine Grundanforderung. Daher filtert die TK Health-Apps entsprechend." Allerdings setze die TK auf den informierten Patienten, den man bei der Wahl einer App keineswegs einschränken wolle. Daher teile die TK Health-Apps in drei Kategorien ein: 
  1. eigene digitale Angebote,
  2. Kostenerstattung für kommerzielle Apps und
  3. Apps, die von Healthon mit einer Risiko-Einschätzung versehen seien.
Ein Beispiel für das eigene digitale Angebot sei die App gegen Tinnitus, die gleichzeitig eine Prozess-Innovation im Datenschutz darstelle: Der Zugang zur App führe über die Chip-Karte des Patienten, die der verschreibende Arzt mit einem Zugangs-Code versehe. Die vielen Fragen kommentierte Morschitzky: "Ich bin überrascht, welche Probleme man haben kann, wenn die Krankenkassen mitspielen!" Er betrachtet Panik-Störungen als Störung der Beziehung zu sich selbst. "Daher sehe ich jede App als Chance zur Selbsthilfe", ganz egal, ob über Skype, Facetime oder Telefon kommuniziert werde. "Meine App enthält Fragebögen, Checklisten, etc., die man an sich selbst oder an einen Therapeuten schicken kann." Techniker Krankenkasse: Kostendämpfung durch Bonifizierung
Während der Diskussion der Befunde arbeitete Rupp noch einmal deutlich den Unterschied zwischen privaten (PKV) und gesetzlichen Krankenversicherungen (GKV) heraus: "Die PKV versichern Risiko, während die GKV Solidargemeinschaften darstellen."  Er warnte, dass die Risikobewertung der Versicherten mit der fortschreitenden Digitalisierung zunehmen werde: "Es ist also gut, dass wir in Deutschland eine soziale Versicherung haben, deren Beiträge vom Einkommen [der Versicherten] abhängt." Um Kosten zu dämpfen, setzten GKV zunehmend auf eine Bonifizierung von Eigenvorsorge, die es digital zu verstärken gelte. Mit Blick auf die App-induzierte Selbstausspähung der Versicherten warnte er: "Was nicht geht, ist, dass eine Versicherung alles erfährt, was ein Versicherter tut." Es reiche zu wissen, woran Versicherte erkrankten. Versicherungen müssten sich damit begnügen, per App erhobene Daten nur statistisch und ohne Rückschlussmöglichkeit auf das jeweilige Individuum auszuwerten. Zur iWatch von Apple, die eine Reihe von Gesundheits- und Körperfunktionsdaten automatisch registriert, stellte der TK-Vertreter richtig: Seine Versicherung bezuschusse den Erwerb dieses Geräts nicht mit 250 Euro; diesen Betrag erstatte die TK generell für Vorsorgeuntersuchungen, die Teilnahme an Vorsorgeprogrammen und andere Eigeninitiativen – pro Jahr. Die von Rupp verlangte Eigenvorsorge wird zunehmend durch Selbsthilfe und deren Organisationen wie MASH erbracht. Beim 30jährigen Jubiläum des Münchner Selbsthilfezentrums SHZ im Oktober wurde Selbsthilfe als wichtige Stütze des deutschen Gesundheitssystems gewürdigt. Die gesetzlichen Krankenkassen unterstützen mehrere Zehntausend Selbsthilfegruppen im Lande mit Millionen Mitglieder mit 70 Millionen Euro im Jahr. Viele befassen sich mit Depressionen. Laut Psychoreport, so Kramer, ist die Anzahl der Depressions-Erkrankungen in 10 Jahren um 103 Prozent gestiegen. Ein Grund sei, dass sich mittlerweile auch Männer mit solchen Beschwerden zum Arzt trauten. Eine der Hauptursachen sei aber die Zunahme an Belastungen durch ständige Erreichbarkeit, E-Mails, Stress am Arbeitsplatz und Doppelbelastung. Depressionen seien früher eher in anderen Krankheitsbildern versteckt gewesen, erklärte sie. Die von Rupp und Selbsthilfe verlangte und praktizierte Eigenvorsorge favorisiert auch Morschitzky: "Jede Form der Technik im gesundheitlichen Bereich stellt einen Fortschritt dar, denn in der Pharmakologie ist seit Jahren nichts Neues dazu gekommen". Die anschließende Frage eines Teilnehmers, ob und in welchem Umfang Apps künftig Medizin ersetze können, beantwortete Kramer: "Eine Therapie bislang – nein. Apps können immer nur Bausteine eines Therapie-Konzepts sein, ersetzen aber Arzt und Arznei nicht." Die von ihnen generierten Informationen über Abläufe im Körper in Krankheitskontexten könnten allerdings der Forschung helfen, Wissenslücken zu schließen.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

Wer sich zum Kauf eines digitalen Radio-Empfängers entschließt, sieht sich mit einem breitgefächerten Angebot konfrontiert. Digitalradio ist nicht gleich Digitalradio, denn die vielen Geräte unterscheiden sich anhand ihrer Funktionen und Angebote, die als Auswahlkriterium dienen können. Nicht alle DAB-Empfänger sind internetfähig, und nicht überall ist der reibungslose Radio- und Web-Radio-Betrieb ohne zusätzliche Geräte wie externe Antennen möglich. Haupt-Kriterien bei der Auswahl sind aber in jedem Fall die Anschluss-Möglichkeiten und die Kompatibilität zu den diversen Übertragungs-Standards. In unserer Marktübersicht finden Sie ausschließlich Geräte, die LAN- und WLAN-fähig sind und UKW und DAB gleichermaßen beherrschen. Daraus ergab sich eine Aufteilung in vier Kategorien: Internetradios mit und ohne Docking-Funktion, Kompaktanlagen, Tuner und tragbare Radios.Berlin, Santa Clara, Kalifornien, USA – Am 29. Oktober 2015 öffnete die 2015 IEEE International Conference on Big Data. Prof. Dr. Christof Weinhardt und Dr. Alexander Lenk vom FZI Forschungszentrum Informatik, die die Smart-Data-Begleitforschung leiten, präsentierten im Rahmen eines Workshops das Technologie-Programm "Smart Data – Innovationen aus Daten" des Bundesministeriums für Wirtschaft und Technologie (BMWi) sowie erste Ergebnisse aus dem Bereich der Standardisierung von Big-Data-Technologien. Außerdem stellte dort Matthieu-P. Schapranow vom Hasso Plattner Institut das Smart-Data-Projekt SAHRA vor. Smart Data ist eines von mehreren Technologie-Programmen des Bundesministeriums für Wirtschaft (BMWi). Innerhalb des Smart-Data-Programms werden 13 Projekte in den benannten Anwendungsfeldern gefördert. Diese Projekte wiederum setzen sich zusammen aus verschiedenen Unternehmen und Organisationen. Finanziert wird die Förderung aus Mitteln des BMWi (rund 30 Mio. Euro) und aus Mitteln der Unternehmen (rund 25 Mio. Euro). Bei der internationalen Konferenz lag der Schwerpunkt der deutschen Beiträge auf der Präsentation der Ergebnisse der begleitenden Forschung für die Entwicklung einer Systematik zur Identifizierung wichtiger Bereiche der Standardisierung von Smart-Data-Lösungen. Dr. Alexander Lenk erläutert: "Nur mit klaren Standards können wir eine Basis für eine effiziente Entwicklung und Nutzung von Smart-Data-Technologien schaffen. Wichtig ist, dass die Standards [...] auf die Anforderungen aller Stakeholder zugeschnitten sind – wie zum Beispiel Technologie- und Serviceanbieter, den Verbraucher oder die Öffentlichkeit. Denn ein Smart-Data-Ökosystem besteht aus unzähligen Akteuren, deren Bedürfnisse alle berücksichtigt werden müssen. Darüber hinaus haben wir drei Schwerpunktbereiche erarbeitet, in welche die Standards unterteilt werden können: Technologie und Sicherheit, Wirtschaft sowie Recht. Aus den Ansprüchen der Stakeholder und den drei Schwerpunktbereichen haben wir eine Taxonomie [...] Systematik entwickelt, auf deren Basis nun der Standardisierungsbedarf identifiziert werden kann. 
"Die Analyse und Nutzung der großen Datenmengen birgt ein erhebliches gesellschaftliches und wirtschaftliches Potenzial für Deutschland und für die Wettbewerbsfähigkeit der Unternehmen. Um einen Vorteil aus den Daten zu ziehen, muss ein Smart-Data-Ökosystem über Ländergrenzen hinweg ermöglicht werden. Zu diesem Zweck werden einheitliche Standards dringend benötigt. Eine Systematik zur Identifizierung des notwendigen Standardisierungsbedarfs und darauf aufbauend die Erstellung von Standards bilden die Grundlage für die Entwicklung von Smart-Data-Lösungen", betont Filiz Elmas, die beim Deutschen Institut für Normung (DIN) als Innovations-Managerin tätig ist und über "Standardisierung im Bereich von Big Data aus Sicht der wichtigsten deutschen Normungsorganisation" referiert hatte. Die 2015 IEEE International Conference on Big Data zählt zu den führenden Foren zum Austausch neuester Entwicklungen in der Big-Data-Forschung, die sich auf Themen rund um Big-Data-Infrastruktur, -Management, -Sicherheit und -Anwendungen fokussiert hat. Konferenz-Sponsor ist das Institute of Electrical and Electronics Engineers (IEEE). Mit rund 430.000 Mitgliedern in 160 Ländern diese Organisation von Ingenieuren aus den Bereichen Elektro- und Informationstechnik der größte technische Berufsverband der Welt. Zum "Thema Smart Data – Innovationen aus Daten" Im Zeitraum 2014 bis 2018 fördert das BMWi mit dem Technologie-Programm „Smart Data – Innovationen aus Daten“ mit einem Betrag von rund 30 Millionen Euro 13 so genannte Leuchtturmprojekte, die den zukünftigen Markt von Big-Data-Technologien für die deutsche Wirtschaft erschließen sollen. Weitere 25 Millionen Euro bringen die beteiligten Organisationen und Unternehmen auf. Smart Data ist Teil der neuen Hightech-Strategie und der Digitalen Agenda der Bundesregierung.Bonn -  Einfach, sicher und bezahlbar. Das sind die drei Stichworte, mit denen T-Systems den Public-Cloud-Markt aufrollen und so "kleinen" Mitbewerbern wie Amazon kräftig in die Suppe spucken will. Geworben wird mit insbesondere mit der Netzwerkkompetenz und dem Vertrauen in die deutsche Gesetzeslage in Sachen Datenschutz / Datensicherheit. Beim "Mittelbau", sprich der Hardware für Rechenleistung, Arbeits- und Datenspeicher, muss T-Systems auf Partner zurückgreifen. Am 23.10.2016 vereinbarte der Konzern nun eine Kooperation mit dem Technologie-Anbieter Huawei. Einen Namen hat das Kind auch schon: "Open Telekom Cloud". Und zur CeBIT 2016 soll es dann offiziell aus der Taufe gehoben werden. Rechenzentrums-Infrastruktur, also Kühlung, Stromversorgung etc., sowie die Services on top entwickelt die Deutsche Telekom mit bestehenden Partner - darunter durchaus ebenfalls Huawei. Die Rechenleistung, Switche, etc. kommen hingegen ausschließlich von Huawei. Außerdem steuert das chinesische Unternehmen noch seine Lösungskompetenz bei. Die Deutsche Telekom steigt mit der Open Telekom Cloud in ein Marktsegment ein, das bislang vor allem von amerikanischen Wettbewerbern bedient wurde. "Immer mehr Kunden entdecken die Vorteile der Public Cloud für sich. Aber sie wollen eine europäische Alternative", erklärt Dr. Ferri Abolhassan, Director IT-Division T-Systems, der die Cloud-Wachstumsinitiative der Telekom konzernweit leitet. Anette Bronder, Director der neu gegründeten Digital Division von T-Systems, die das Public-Cloud-Geschäft aufnehmen wird, sagte anlässlich der Vertragsunterzeichnung in der Telekomzentrale: "Mit der Open Telekom Cloud bringen wir jetzt die richtige Plattform und Lösung. Sie ist einfach, sicher und bezahlbar."

"Wir wollen unsere strategische Zusammenarbeit mit T-Systems als führendem IKT-Anbieter ausbauen. Huawei und die Deutsche Telekom können diese neue Kooperation auf Basis ihrer langen, engen und vertrauensvollen Beziehung entwickeln", sagt Shengli Wang, Präsident der Region Europa von Huawei und Vorstandsmitglied. "Die Open Telekom Cloud ist das Ergebnis der Innovation und der Zusammenarbeit beider Partner. Die kombinierte Innovationskraft beider Unternehmen bietet unseren globalen Kunden ein optimales Servicepaket."

Pilotphase mit 30 Kunden läuft
30 kleine, mittelständische und große Unternehmen beziehen bereits als Pilotkunden Rechenleistung, Arbeitsspeicher und Festplattenspeicher per Mausklick flexibel aus der Open Telekom Cloud. Die Bandbreite reicht bei den Unternehmen vom Start-ups über klassische Mittelständler bis hin zu Traditionskonzernen. Die Erfahrungen dieser Pilotkunden mit der Benutzeroberfläche oder der Geschwindigkeit der Service-Bereitstellung fließen bereits in die weitere Entwicklung bis zum Marktstart ein. Die Telekom will ihren Umsatz mit der Cloud für Geschäftskunden bis Ende 2018 verdoppeln. Im vergangenen Jahr stieg der Umsatz mit Cloud-Lösungen allein bei T-Systems bereits deutlich zweistellig. Dabei nutzen Kunden bislang überwiegend die besonders abgesicherte Private Cloud. Bis zum Jahr 2020 strebt die Deutsche Telekom mit ihrer Open Telekom Cloud einen Marktanteil von 20 Prozent in Europa an - ein klare Kampfansage nicht nur an Amazon. Der Ausbau der Marktposition bei Geschäftskunden ist ein wichtiger Schritt der Telekom zum führenden Telekommunikationsunternehmen in Europa. Das Geschäft mit IT- und Telekommunikations-Services aus der Cloud wächst ungebrochen, deshalb baut der Konzern sein Cloud-Ökosystem mit marktführenden Technologiepartnern immer weiter aus. Seit 2005 bieten die Deutsche Telekom und ihre Tochter T-Systems sichere Ende-zu-Ende-Cloud-Lösungen für Unternehmen jeder Größe – von der Beratung über die Implementierung, Abrechnung und den Kundenservice bis hin zur Wartung. Im wachsenden Partner-Ökosystem der Telekom finden sich unter anderem Lösungen von SAP, Microsoft, Cisco, Salesforce, VMware, Huawei, Oracle, SugarCRM oder Informatica. Preise und Verfügbarkeit
Die Open Telekom Cloud startet zur CeBIT 2016. Ab Jahreswechsel 2015/2016 sollen über die Website der T-Systems Preise und Konditionen abrufbar sein. Huawei Open Lab in München
Passend zur Vereinbarung zwischen Huawei und T-Systems eröffnet Huawei Ende November in München das europäische Open Lab. Dort bietet Huawei Partnern und Neukunden gleichermaßen die Möglichkeit, die Expertise von Huawei in der Umsetzungen von Lösungen sowie deren Entwickler-SDK mit eigenen Ideen zu verbinden, diese Ideen umzusetzen und bis zur Marktreife gemeinsam zu entwickeln - ein Paket von der Idee über die Umsetzung im isolierten Betrieb bis hin zum Rollout für den Alltag. Die Entscheidung für München als europäischem Open Lab ist dabei unter anderem wegen der Nähe zu den innovativen Unternehmen gefallen. In einem Vortrag beim CIO-Foum von Huawei in Lissabon berichtete Linji Tian, Chef des Münchner Open Lab, von einem Projekt, das im Vorfeld bereits mit Alstom umgesetzt wurde. Hierbei ging es um die Entwicklung und Optimierung eines LTE-gestützten Service- und Informations-Systems für Metro-Züge. Das Projekt umfasste neben dem Aufbau eines sicheren Netzes für Zugsteuerung und KOmmunikation zwischen Fahrer und Zentrale auch die Anbindung des Fahrgastinformationssystems und die Video-Überwachung in den Zügen. Bis zur Fertigstellung und dem Ausrollen des Projekts fand die Entwicklung im sicheren Umfeld statt, mit einer eigenen, abgeschlossenen Teststrecke und einem echten Zug. Mittlerweile ist das System soweit ausgereift, dass es in die Praxis umgesetzt werden konnte.

Jetzt auf Kickstarter: scanPAD: Digitalisieren leicht gemacht - ein Kurztest 22 Oct 2015 11:48 AM (9 years ago)

München – Es ist ein allgemein bekanntes Szenario: Ein Brief/Beleg oder ähnliches liegt in Papierform vor und muss schnell anderenorts vorliegen. Zu Zeiten, als Faxgeräte noch in den meisten Büros und teilweise auch Haushalten herumstanden war das kein Problem: Ab ins Faxgerät und gleich per Fax wegschicken. Faxgeräte gehören mittlerweile aber bei den meisten eher in die Museumsabteilung oder wurden zumindest durch die digitale Variante im Multifunktionsgerät oder gleich direkt per Software im PC oder gar dem Router ersetzt. Womit iwr wieder beim Problem wären: Wie digitalisiere ich meinen Brief/Beleg? Zunehmende Bedeutung gewinnt die Frage, seit es beispielsweise für das Finanzamt ausreicht, Belege digitalisiert aufzubewahren, sofern ein entsprechendes Verfahren zur Digitalisierung schriftlich niedergelegt wurde. In diesem Verfahren muss für jeden Beleg eine Übereinstimmung des Originalbelegs mit dem Scan/Bild bestätigt werden. In der Praxis heisst das derzeit zumeist noch, dass doch wieder Papierbelege in die Buchhaltung wandern und dort dann digitalisiert werden. Für größere Unternehmen mag das kein Problem darstellen, da hier genug Mitarbeiter zur Verfügung stehen. In kleineren Unternehmen steht aber oft noch nicht einmal ein Scanner. Warum dann nicht einfach mit dem Handy die Belege abfotografieren? Weil man dann ganz schnell mindestens drei Hände braucht: Eine zum Halten und Auslösen der Handykamera und zwei, um den aus dem Geldbeutel gezogenen Belege glatt auf der Unterlage zu halten. Und selbst dann ist das Ergebnis oft noch verwackelt oder unscharf, mal ganz abgesehen von Problemen mit dem Licht. Die Lösung ist einfach: Eine Halterung für's Handy muss her. Sucht man im Internet, findet man meist nur Handyhalterungen für's Auto oder Fahrrad. Wer die richtigen Suchbegriffe verwendet stößt vielleicht noch auf ein Produkt namens Scanbox, das nichts anderes als eine zurechtgeschnittene Pappbox ist - wahlweise mit oder ohne integrierte Beleuchtung. Doch mal ehrlich: Wer will sich das Teil im Büro hinstellen? Das dachten sich auch die Entwickler von scanPAD und entwarfen eine Handyhalterung aus Aluminium mit Folien, die nach dem Prinzip der Gecko-Füße quasi selbsthaftend wirken sowohl für die Auflagefläche als auch für die Befestigung des Smartphones. Mit Hilfe dieser Folien kann man zum einen eben das Smartphone oder auch Tablet auf der Halterung befestigen als auch verknitterte oder gewellte Papiere auf der Auflage befestigen. In der Praxis funktionierte diese Folie bei fast allen Smartphones problemlos. Lediglich bei Handys mit rauhen Oberflächen auf der Rückseite gab es Probleme. Etwas anders sah es bei der Auflage für die Belege / Paiere aus. Manches Thermopapier schaffte es sehr schnell, sich wieder von der Folie zu lösen. Aber mit einem zweiten Versuch war auch das im Test schnell behoben. Der Vorteil der Folien gegenüber anderen Lösungen, bei denen die Belege in Klarsichthüllen gelegt werden müssen oder Folien darüber gelegt werden müssen, wiegt das auf jeden Fall auf: keine Spiegelungen oder sonstige Lichtreflexe. Im Kurztest hatten wir binnen 10 Minuten 17 Belege erfasst -  mehr war gerade nicht greifbar. Danach gingen wir daran, einen Stapel Visitenkarten abzuarbeiten: Bei neun Karten pro Photo waren schnell die ca. 200 Karten erfasst. Dank des einfarbigen Hintergrunds lassen sie sich danach schnell ausschneiden und entweder per OCR auslesen oder anderweitig weiterverarbeiten. Ebay-Verkäufer werden die kleine "Green-Box" ebenfalls lieben, da sie Gegenstände einfach abfotografieren und danach freistellen können -  und das alle ohne aufwändiges Fotoequipement. Doch scanPAD hat noch mehr Einsatzmöglichkeiten. Verfügt das Handy über eine Software, mit der sich der Bildschirminhalt auf einen Monitor oder über einen Beamer wiedergeben lässt, wird aus der Kombination scanPAD und Smartphone beispielsweise ein Oberhead-Projektor. Oder sie geben Filme vom Smartphone aus wieder. Selbst bei Video-Chats ist die Halterung hilfreich, da man die Hände frei hat und das Handy immer in der gleichen Position bleibt. Noch gibt es leider nur ein paar Sample, aber scanPAD soll Mitte September auf Kickstarter gehen und in der ersten Charge 149 Euro kosten. Dafür erhält man dann ein solide gefertigtes Gerät, das auch noch gut aussieht und selbst auf dem Schreibtisch eine gute Figur macht. Derzeit wollen die Entwickelr noch auf eine eigene Software zum Produkt verzichten, da man jede beliebige Photo-App verwenden kann. Mittlerweile ist das Projekt auf Kickstarter zu finden: https://www.kickstarter.com/projects/150550806/scanpad-the-coolest-scanner-ever

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

SSP Europe kommentiert Safe-Harbor-Urteil des EuGH 14 Oct 2015 7:44 AM (9 years ago)

München – Passend zum Start Europas größter Messe für IT-Sicherheit, der it-sa, die alljährlich Hunderte von Ausstellern und Tausende von Besuchern nach Nürnberg lockt, hatte der Europäische Gerichtshof (EuGH) am 6. Oktober 2015 das Safe-Harbor-Abkommen zwischen der Europäischen Union und den USA von Amerika im Grundsatz für ungültig erklärt. Die Pressemitteilung Nr. 117/15 zum Urteil in der Rechtssache C-362/14 vom 6. Oktober 2015 stellt in selten klaren Worten den Sachverhalt dar:

"Der Gerichtshof erklärt die Entscheidung der Komission, in der festgestellt wird, dass die Vereinigten Staaten von Amerika einen angemessenes Schutzniveau übermittelter personenbezogener Daten gewährleisten, für ungültig."

Vorausgegangen war ein jahrelanger Rechtsstreit zwischen dem Österreichischer Max Schrems und der Datenschutzbehörde Irlands. Der Facebook-Nutzer hatte hatte Zweifel, ob seine Daten bei der irischen Facebook-Tochtergesellschaft sicher seien oder nicht doch sie ganz oder teilweise an Server, die sich in den Vereinigten Staaten befinden, übermittelt und dort verarbeitet würden. Die Irische Datenschutzbehörde hatte Schrems' Beschwerde mit der Begründung zurückgewiesen, dass die Europäische Kommission in ihrer Entscheidung vom 26. Juli 2006 festgestellt habe, dass die USA im Rahmen der "Safe-Harbor-Regelung" ein angemessenes Schutzniveau der übermittelten personenbezogenen Daten gewährleisten würden. Nach den Enthüllungen Edward Snowdens über die Aktivitäten US-Amerikanischer Nachrichtendienste sind jedoch nicht nur Zweifel an der Vertragstreue der USA angebracht, sondern Zweifel am "Sicheren Hafen" per se.

Rechnung ohne Wirt...
In seiner Entscheidung vom 6.10.2015 führt der EuGH aus, "dass die Existenz einer Entscheidung der Komission [...] die Befugnisse, über die die nationalen Datenschutzbehörden [...] verfügen, weder beseitigen oder auch nur beschränken kann." Und fährt fort: "Auch wenn die Komission eine solche Entscheidung erlassen hat, müssen die nationalen Datenschutzbehörden [...] in völliger Unabhängigkeit prüfen können, ob bei der Übermittlung der Daten einer Person in ein Drittland die in der Richtlinie aufgestellten Anforderungen gewahrt werden." Da hatte also jemand die Rechnung ohne Wirt gemacht. Denn "Letztlich hat somit der Gerichtshof darüber zu befinden, ob eine Entscheidung der Kommission gültig ist." Dazu sagt EU-Komissar Günther Öttinger im Spiegel 42/2015: "Die Kommission hat bereits seit längerer Zeit die Verhandlungen über die Modernisierung von Safe Harbor gestartet. [...] Jetzt wird es darauf ankommen, wie die Verpflichtungen aus dem Urteil in die weiteren Verhandlungen eingebracht werden können." Er glaubt jedoch offenbar nicht daran, dass eine neue staatliche Regelung zur Einhaltung europäischer Datenschutz-Standards, so es sie denn irgendwann geben wird, verpflichtend sein könne, weshalb er eine Neuauflage von Safe Harbor anstrebe. "Eine neue Safe-Harbor-Regelung wird schwierig", kommentiert Günter Untucht, Chefjustiziar des japanischen IT-Sicherheitsanbieters Trend Micro in Europa. Denn die in der Urteilsbegründung angesprochenen Grundrechte seien nicht verhandelbar. Wenn sich also in den USA nichts Grundsätzliches ändere, dürfte es für die EU-Kommission schwierig bis unmöglich werden, eine neue, rechtssichere Safe-Harbor-Regelung oder sogar ein entsprechendes Abkommen mit den USA auszuhandeln. Rechtssicherheit sieht anders aus! Die aber brauchen all jene, die mit personenbezogenen Daten verantwortungsvoll umgehen müssen, seien es Unternehmen, Verbände oder Vereine. Die Cloud ist eben kein rechtsfreier Raum, schwebt jedoch über Rechtsräumen unterschiedlicher Auffassungen von Datenschutz und Schutz von Persönlichkeitsrechten. Doch ohne klare Abgrenzungen ist Datensicherheit in Cloud-Angeboten so lange mit außerordentlich vielen Fragezeichen behaftet, so lange keine Rechtsverbindlichkeit, einschließlich Haftung, garantiert werden kann. Doch es geht auch anders – lokal eben, wenngleich nicht für gängige soziale Netzwerke. Marc Schieder, COO SSP Europe erklärt dazu gegenüber Tom's Networking: "Nach dem Fall des Safe-Harbor-Abkommens zwischen der EU und den USA ist die vollständige Tragweite des EuGH-Urteils noch nicht abzusehen. Klar ist aber, dass der Transfer von personenbezogenen Daten in die USA nicht mehr so einfach möglich ist – hier müssen vermutlich individuelle Zusatzabkommen geschlossen werden. Die Ablage von Kunden- oder Mitarbeiterdaten bei einem US-amerikanischen Cloud-Anbieter ist somit bis zum Abschluss eines neuen Abkommens mit einem hohen juristischen Risiko verbunden." SSP Europe bietet einen Cloud-Speicher an, der mit "Triple-Crypt" Client, Übertragungsweg und den Server selbst mit starker Verschlüsselung versieht. Was Leistungen seiner Firma anbelangt, versichert Mac Schieder: "Für den SSP Secure Data Space hat jedoch schon immer gegolten: Made in Germany – hosted in Germany. Somit gibt es keinerlei Hindernisse personenbezogene Daten in diesem geschützten und mit Datenschutzzertifizierungen ausgezeichneten Produkt zu speichern". Zu den Dienstleistungspartnern von ESS Europe zählen die Deutsche Telekom, Vodafone, M-Net und BT, und zu den Technologiepartnern Cisco, Microsoft, CheckPoint, BlueCoat und F-Secure.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

Nürnberg – Die Nürnberger Firma Softmaker bietet sein Officepaket erstmals ebenfalls für Android an. Softmaker Office HD Basic läuft auf Android-Tablets mit ARM-CPU und Android 4, 5 oder 6. In puncto Bildschirmdiagonale empfiehtl der Hersteller Geräte mit einer Mindestdiagonale von 7 Zoll (17,78 cm). Die kostenlosen Office-Apps Textmaker HD Basic (Textverarbeitung), Planmaker HD Basic (Tabellenkalkulation) und Presentations HD Basic (Präsentationssoftware) bieten laut Softmaker mehr Funktionen und eine weit bessere Microsoft-Office-Kompatibilität als andere Android-Officepakete. Bisher waren die drei Apps von Softmaker nur im Amazon App-Shop erhältlich. Für dessen Nutzung ist jedoch die lästige Installation einer speziellen Amazon-App zwingend nötig. Softmaker Office HD liefert laut Softmaker als einziges Officepaket für Android-Tablets den vollständigen Funktionsumfang eines Windows-Officepakets. Softmaker HD Basic enthält zwar einige Profi-Features weniger als die kostenpflichtige HD-Variante, bietet aber dennoch einen deutlich größeren Funktionsumfang als alle anderen kostenlosen Office-Apps. Die Einzelprogramme Textmaker HD Basic (Textverarbeitung), Planmaker HD Basic (Tabellenkalkulation) und Presentations HD Basic (Präsentationssoftware) waren bisher nur im Amazon App-Shop erhältlich. In Textmaker HD Basic lassen sich auch große und aufwändig formatierte Dokumente bearbeiten. Bei Planmaker HD Basic kennt über 350 Rechenfunktionen. Die Berechnungen kann die Tabellenkalkulation als Diagramme in 80 verschiedenen Typen darstellen. Das Präsentationsprogramm Presentations HD Basic bietet vielfältige Effekte und Gestaltungselemente. Das wichtigste Alleinstellungsmerkmal ist nach Aussage der Softwarefirma aus Nürnberg die Kompatibilität zu Dateiformaten des marktbeherrschenden Unternehmens aus Redmond: Die drei Softmaker-Apps gestatten den verlustfreien Datenaustausch mit Microsoft Word, Excel und Powerpoint: Die alten Dateiformate DOC, XLS und PPT können ebenso originalgetreu geöffnet und gespeichert werden wie die aktuellen Dateitypen DOCX, XLSX und PPTX aus Microsoft Office 2007 bis 2016. Erwartungsgemäß bietet die kostenpflichtige HD-Variante der Android-Officeprogramme von Softmaker einen noch größeren Funktionsumfang. Hinzu kommen hier beispielsweise Pivottabellen oder der Export ins E-Book-Format EPUB. Das Upgrade auf Softmaker Office HD kostet € 4,99 pro Programm. Preis und Verfügbarkeit
Das neue Softmaker Office HD Basic für Android ist in Google Play in Form dreier kostenloser Downloads erhältlich: https://play.google.com/store/apps/developer?id=Softmaker%20Software%20GmbH&hl=de

Safe-Harbor-Urteil des EuGH - der Tag danach 7 Oct 2015 6:49 AM (9 years ago)

Hallbergmoos – Auch wenn es erste große Internetfirmen gibt, die abwiegeln: Die gestrige Entscheidung des Europäischen Gerichtshofs hat ein schweres Erdbeben ausgelöst. Schließlich hat das Gericht den Beschluss der EU-Kommission aus dem Jahr 2000, die von den USA vorgelegte Safe-Harbor-Regelung ("safe harbor scheme") als mit europäischen Datenschutzstandards vereinbar anzusehen, für ungültig erklärt. Die Schockwellen dieses Erdbebens werden uns zwar erst nach und nach treffen, dafür aber umso heftiger. Denn die in der Urteilsbegründung angesprochenen Grundrechte sind nicht verhandelbar. Wenn sich also in den USA nichts Grundsätzliches ändert, dürfte es für die EU-Kommission schwierig bis unmöglich werden, eine neue, rechtssichere Safe-Harbor-Regelung oder sogar ein entsprechendes Abkommen mit den USA auszuhandeln. Das Urteil ist eindeutig ein Sieg für die Grundrechte, insbesondere das der informationellen Selbstbestimmung. Dieses ist dadurch gefährdet, dass Behörden in den USA personenbezogene Daten ohne begründeten Verdacht sammeln und speichern – und die US-Firmen sich im Grunde dagegen nicht wehren können. Außerdem ist EU-Bürgern für Beschwerden gegen diese mangelnde Datenschutzpraxis in den USA – die US-Firmen konnten sich übrigens sogar selbst zertifizieren, dass sie sich an die Vorgaben der Safe-Harbor-Regelung halten – der Rechtsweg verschlossen. Damit wird aus europäischer Sicht ein weiteres Grundrecht verletzt. Firmen, die personenbezogene Daten von EU-Bürgern in die USA transferieren, dürften damit diese Praxis im Prinzip ab sofort nicht mehr anwenden. Wo kein Kläger, da kein Richter?
Dass das Erdbeben nicht unmittelbar zu spüren ist, liegt daran, dass es nun bei den nationalen Regulierungsbehörden und Politikern liegt, die Konsequenzen daraus zu ziehen. Doch da es hier um den Schutz von Grundrechten geht, müssten die deutschen Datenschutzbehörden ab sofort von sich aus aktiv werden und die Datenschutzpraxis und -regelungen der Unternehmen überprüfen. Da das Urteil in der deutschen Politik ein positives Echo hervorgerufen hat, ist durchaus davon auszugehen, dass die Aufsichtsbehörden schon sehr bald aktiv werden. Außerdem wird die Bundesregierung aus dem Urteil sicherlich wertvolle Erkenntnisse ziehen, nicht nur für die weiteren TTIP-Verhandlungen, sondern auch für die konkrete Anwendung ihres eigenen No-Spy-Guarantee-Erlasses. Was sind uns die Grundrechte wert?
Die Verantwortung dafür, den Wert unserer Grundrechte zu achten, liegt aber nicht nur beim Staat und der Politik, sondern bei uns allen. Der Österreicher Max Schrems hat es mit seiner Klage vor dem EuGH vorgemacht – mal ganz abgesehen von den persönlichen Risiken, die Edward Snowden bei seinen Enthüllungen, die dem EuGH-Urteil wesentlich zugrunde liegen, eingegangen ist. Zwar gehe ich davon aus, dass es dauern wird, bis eine nennenswerte Zahl von Endkonsumenten den Schutz ihrer persönlichen Daten bei US-Anbietern einfordern wird. Diejenigen jedoch, die unmittelbar handeln müssen, sind alle Unternehmen, die entweder selbst personenbezogene Daten aus der EU in die USA transferiert oder die Dienstleistungen von Drittanbietern in der so genannten Cloud und mit Rechenzentren in den USA in Anspruch genommen haben. Denn jetzt stehen wieder sie in der Pflicht, dem deutschen und europäischen Datenschutzrecht Geltung zu verschaffen, soweit sie davon betroffen sind. Auf die Safe-Harbor-Regelung lässt sich nun ja nicht mehr verweisen, um aus der Haftung, auch der persönlichen der Vorstände und Geschäftsführer, herauszukommen.

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

it-sa 2015 1 Oct 2015 4:50 AM (9 years ago)

Nürnberg – Am Dienstag, den 6. Oktober 2015, öffnet die Nürnberger Messe ihre Pforten für die it-sa 2015, auf der sich drei Tage lang Fachbesucher aus aller Welt profund und umfassend über Security-Themen rund um die elektronische Datenverarbeitung informieren können. Vom 6. bis 8. Oktober werden über 420 Aussteller auf Europas größter IT-Sicherheitsfachmesse it-sa Produkte und Lösungen zeigen, die Unternehmen und Organisationen schützen. Damit mausert sich die it-sa zur wichtigsten Informationsplattform und zum Branchentreffpunkt für IT-Anwender und Entscheider aus sämtlichen Bereichen Verwaltung und Wirtschaft. Die Aussteller der it-sa 2015 sehen einer repräsentativen Umfrage durch den Veranstalter zur Folge die IT-Sicherheitsbranche auf Wachstumskurs. Durch das IT-Sicherheitsgesetz erwarten die Anbieter von IT-Sicherheitslösungen zusätzliche positive Impulse, insbesondere aus den Bereichen Energie, Finanzen und Versicherungen sowie Informationstechnik und Telekommunikation. Sie haben angegeben, im Risikomanagement ihrer Auftraggeber Lücken zu erkennen. So sei es um so unwahrscheinlicher, dass ein IT-Sicherheitskonzept existiert, je kleiner das betroffene Unternehmen ist. Die Mehrheit ihrer Kunden wende sich erst nach einem konkreten Sicherheitsvorfall in ihrer EDV an IT-Sicherheitsanbieter. Verteidigung gegen dunkle Künste
Ein besonderes Highlight dürfte die mit Spannung erwartete Keynote des per Videokonferenz zugeschalteten Whistleblowers Edward Snowden sein, die am 8. Oktober 2015 um 12:30 Uhr im Saal Paris des NCC West im Messezentrum Nürnberg. Unter dem Motto: "Defense against the Dark Arts: Today's cybersecurity problem and how to fix it" soll er über die aktuellen Probleme der Cyber-Sicherheit sprechen und Vorschläge unterbreiten, wie sie zu lösen sein könnten. Zu den Ausstellern zählen unter anderen die Firma Kaspersky Lab, die in Halle 12.0 am Stand 416 ihr aktuelles Produktportfolio für Unternehmen vorstellt, zu dem neben den klassischen Endpoint-Lösungen, der Abwehr von DDOS-Attacken und Online-Banking-Betrug maßgeschneiderte Security Intelligence Services für Firmen und Organisationen jeder Größe zählen. Ebenfalls dabei sein wird die Firma Secusmart, die mit dem so genannten Kanzlerhandy, einem abhörsicheren Mobiltelefon auf Blackberry-Basis bekannt geworden ist. Barracuda Networks nimmt sich mit Next Generation Firewalls des Problems an, dass immer mehr Unternehmen geschäftskritische Infrastrukturen in die Cloud verlagern und über Microsofts Cloud-Dienst "Office 365" kommunizieren. Palo Alto Networks wird den neuen Cloud-Dienst AutoFocus präsentieren, der Unternehmen unmittelbar verwertbare Informationen zu Cyber-Bedrohungen liefern und ihnen bei deren Bekämpfung Vorteile verschaffen soll. Akamai, weltweit führende Anbieter von Content-Delivery-Network (CDN)-Services, informiert darüber, dass Abzocker wie DD4BC nicht nur Geld erpressen, sondern Unternehmen auch öffentlich blamieren und deren Image nachhaltig beschädigen wollen. Sophos zeigt UTM-Firewalls, Endpoint Protection, Mobile Device Management und Neues zum Thema Malicious Traffic Detection in Firmennetzwerken, wobei der HTTP-Verkehr im Netzwerk auf Anzeichen untersucht wird, die im Zusammenhang mit infizierten URLs, wie Command-and-Control-Servern stehen, obwohl auf den Endpoints noch keine Infektionen zu erkennen sind. Teamware zeigt die Einsatzmöglichkeiten ihrer bayerischen Cloud und die TeamCloud im virtualisierten Microsoft-Umfeld. Teamware ist als Platinum-Partner am Stand von Sophos vertreten und zeigt dort zusammen mit Sophos die neueste Entwicklungen bei den UTM-Firewalls von Sophos sowie der Endpoint Protection, Mobile Device Management und der neuen Malicious File Detection. Ebenfalls des Themas Collaboration nimmt sich die Firma Brainloop an. Bitdefender nimmt sich erneut des Themas Antivirus an und bietet Lösungen gegen Malware as a Service. Trend Micro stemmt sich mit neuesten Systemschutz-Produkten gegen Viren, Phishing und Malware. Die Axsos AG ist in der letzten Zeit eine Partnerschaft mit F-Secure eingegangen und beschäftigt sich unter anderem mit der Schatten-IT in Unternehmen, also IT-Strukturen, die sich an der IT-Administration vorbei entwickeln. Daten und Fakten zur it-sa
Ort:
Messezentrum Nürnberg, Ausstellungshalle 12, Eingang West Öffnungszeiten:
Dienstag, Mittwoch: 09:00 Uhr bis 18:00 Uhr, Donnerstag 09:00 Uhr bis 17:00 Uhr. Eintrittspreise:
Tageskarte: 28 Euro, ermäßigt: 12 Euro
Dauerkarte 58 Euro

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?

Solarwatt: Lieferstart des Stromspeichers "MyReserve" 1 Oct 2015 2:06 AM (9 years ago)

Dresden – Im Juni hatte die Firma Solarwatt Rahmen der Fachmesse Intersolar 2015 auf der EES Europe, der größten Fachmesse für Batterien und Energiespeichersysteme in Europa, das Stromspeichersystem "MyReserve" vorgestellt. Dabei handelt es sich um einen nachrüstbaren Energiespeicher für Eigenheimsysteme, nachrüstbar, weil er mit Gleichstrom (DC) an bestehende Photovoltaik-Anlagen koppeln lässt; nachrüstbar auch deshalb, weil das Speichersystem um zusätzliche Batterien, gegebenenfalls in einem weiteren Gehäuse, in seiner Kapazität erweiterbar ist. Wegen dieser Eigenschaften war der Firma Solarwatt zu einer der Gewinnerinnen des EES-Awards 2015 gekürt worden: Zitat EES Europe: "Dank seiner DC-Technologie ist er kompatibel mit allen gängigen ein- und dreiphasigen Wechselrichtern. Die Integration funktioniert, ohne auf der Leistungs- oder Kommunikationsseite eingreifen zu müssen. MyReserve überzeugt zudem durch seine unkomplizierte Plug&Play-Installation und einen Gesamtwirkungsgrad von 93 Prozent, der neue und bestehende PV-Anlagen wirtschaftlich besonders lukrativ machen kann." Die Jury war zu folgendem Fazit gekommen: "Das System besticht mit seiner hohen Energieeffizienz und einem bemerkenswerten Sicherheits- und Integrationskonzept." Nun startet Solarwatt mit der Auslieferung dieses Stromspeichers, der eigenen Angaben zur Folge in Hinblick auf marktgängige Strompreise, die durch das Erneuerbare Energien Gesetz aktuell erzielbare Einspeisevergütung die Anschaffungskosten, die Batterielebensdauer und die Anzahl der Ladezyklen wirtschaftlich zu betreiben ist. Zunächst kann Solarwatt nur die MyReserve-Version mit 4,4 kWh Kapazität liefern. Weitere Größen sollen im kommenden Jahr erhältlich werden. Solarwatt-Geschäftsführer Detlef Neuhaus gibt daher bekannt: "Die Nachfrage während und nach der Intersolar hat unsere Erwartungen weit übertroffen. Wir haben die Produktionskapazität entsprechend hochgefahren und beginnen jetzt Schritt für Schritt mit der Auslieferung der Speicher. Im Einzelfall kann es deshalb zu etwas längeren Lieferzeiten kommen." Bei der Batterie-Chemie setzt Solarwatt auf die bewährte Lithium-Ionen-Technik, geht aber bei der Leistungselektronik neue Wege: Das System kann, ohne Umweg über eine DC-AC-Wandlung, die elektrische Energie von Photovoltaik-Zellen direkt aufnehmen, wird also im Energiepfad zwischen Solaranlage und Wechselrichter eingefügt. Damit minimiert Solarwatt Wandlungsverluste. Nach Herstellerangaben soll MyReserve über den gesamten Lade- und Entladezyklus (Round-Trip) einen Gesamtwirkungsgrad von 93 Prozent erzielen. Trotz der DC-Koppelung sei das System für Elektroinstallateure und Endkunden sehr sicher handhabbar – Tests der Prüfinstitute TÜV und Cetecom hätten zu entsprechenden Zertifizierungen geführt. Diese Argumente hatten auch Industrie-Player auf den Plan gerufen, etwa den Automobilproduzenten BMW, dessen Elektrosparte BMW i bereits seit April 2013 zusammenarbeitet. Ziel der Kooperation sei die Vermittlung von Photovoltaik-Komplettlösungen für Dachanlagen und Carports an Kunden von BMW. So soll BMW i unter dem Oberbegriff „360° ELECTRIC“ Lösungen für alle Kundenwünsche rund um das Thema Elektromobilität anbieten und die solaren Komplett-Systeme von Solarwatt durch BMW i vermitteln. "Für zukünftige Besitzer eines BMW i3 oder BMW i8 bietet z. B. das neue Solarwatt Carport System eine ästhetische Lösung mit innovativen Glas-Glas-Modulen zur Batterieladung ihres Fahrzeuges und die Eigenversorgung des Haushaltes mit Sonnenstrom. Die Kontaktvermittlung erfolgt auf mehreren Kanälen: So kann der Kunde direkt beim Kauf seines Fahrzeugs oder auch über das Internet die SOLARWATT Systeme beziehen."  Aber auch ohne Elektroauto können Hausbesitzer heute schon loslegen. Laut Carsten Bovenschen, Geschäftsführer Finanzen bei der Solarwatt GmbH, sei MyReserver "deutlich günstiger als vergleichbare Stromspeicher" und wegen des modularen Aufbaus und des mit 25 Kilogramm moderaten Maximalgewichts der Einzelkomponenten schon von einer einzigen Fachkraft einfach zu installieren. Das Basissystem besteht aus einem Gehäuse mit integriertem Leitungselektronik-Modul, das bis zu zwei Batterieblöcke aufnehmen kann. Erweitern lässt sich die Anlage mit einem zweiten Gehäuse, in das maximal drei Batterieblöcke passen. Insgesamt wiege die 4,4-KWh-Anlage 78 Kilogramm. Seit Juli 2015 liefen bereits Installations- und Zertifizierungsschulungen für Installatuere. Preis und Verfügbarkeit: Die 4,4-kWh-Version von MyReserve ist ab sofort lieferbar. Der Brutto-Endkundenpreis (UVP) liegt bei 5499€ (inkl. 19% MwSt.). 

Add post to Blinklist Add post to Blogmarks Add post to del.icio.us Digg this! Add post to My Web 2.0 Add post to Newsvine Add post to Reddit Add post to Simpy Who's linking to this post?