Clausilia.deClausilia.de

    Abonnieren Sie Updates

    Was ist heiß

    Schreib weiter! Call for Abstracts zu „Fortschritt und Völkerrecht“

    February 2, 2022

    Perus Holzeinschlagsinteressen drohen die Wissenschaft auf dem Global Wildlife Summit zu überstimmen

    February 1, 2022

    Die COP27 muss Verluste und Schäden als die Menschenrechtskrise behandeln, die sie ist

    January 6, 2022
    Facebook Twitter Instagram
    Friday, March 24
    Facebook Twitter Instagram
    Clausilia.deClausilia.de
    • Home
    • Internationale Gesetze
    • Strafrecht
    • Umweltgesetz
    • Unternehmensrecht
    Clausilia.deClausilia.de
    Unternehmensrecht

    Data Science Center bändigt Big-Data-Projekte

    JosBy JosOctober 2, 2021Updated:November 21, 2022No Comments9 Mins Read
    Facebook Twitter LinkedIn Telegram Pinterest Tumblr Reddit Email
    Share
    Facebook Twitter LinkedIn Pinterest Email

     

    Greg Negus ist Chief Operating Officer bei Cornerstone Research. In diesem Interview spricht er über Innovationen im Bereich Big Data sowie darüber, wie künstliche Intelligenz und maschinelles Lernen zur Unterstützung von Expertenaussagen eingesetzt werden können.

    Können Sie uns etwas über sich und Ihre Rolle bei Cornerstone Research erzählen?

    Gregor Negus: Ich habe eine 30-jährige Karriere im Management von professionellen Dienstleistungsunternehmen hinter mir. Bevor ich zu Cornerstone Research kam, arbeitete ich als Chief Operating Officer und Chief Financial Officer bei mehreren großen Anwaltskanzleien.

    Bei Cornerstone Research bin ich für die Leitung der Unternehmens- und Verwaltungsfunktionen des Unternehmens verantwortlich. Ich bin unter anderem auch Mitglied des Executive Committee von Cornerstone Research. In dieser Position beaufsichtige ich auch das Data Science Center des Unternehmens, das ein interdisziplinäres Team interner Datenwissenschaftler ist. Die Expertise des Data Science Center-Teams umfasst die Verbesserung der Arbeitseffizienz und die Implementierung modernster Modellierung in Bezug auf die Analyse relevanter Daten und Fallprobleme.

    Können Sie etwas über die Ziele des Data Science Center von Cornerstone Research sagen?

    Auf Unternehmensebene bietet Cornerstone Research Wirtschafts- und Finanzberatung und Gutachten in hochkarätigen Rechtsstreitigkeiten, Ermittlungen und regulatorischen Angelegenheiten. Wir unterstützen Kunden mit rigorosen, objektiven Analysen, die auf realen Daten, modernster Forschung und Präzedenzfällen basieren. Wir sind leidenschaftlich daran interessiert, die Erwartungen unserer Kunden zu übertreffen, und wir haben schon früh erkannt, dass Data Science für die Aufrechterhaltung unseres Exzellenzstandards unerlässlich ist.

    Aus diesem Grund haben wir das Data Science Center geschaffen, unser Zentrum für Data-Science-Expertise. Das Data Science Center ist ein Pionier in unserer Branche bei der Anwendung moderner Techniken wie künstlicher Intelligenz, maschinellem Lernen und Textanalyse, um traditionellere ökonometrische Analysen zu ergänzen. Unsere Mission ist es, unsere Führungsposition zu behaupten, indem wir weiterhin Standards für Technologie, Data Science und Data Engineering setzen.

    Welchen Wert bringt das Data Science Center für die Fallarbeit der Kanzlei und für Kunden?

    Das Data-Science-Team bringt Wert in vier Hauptbereichen: Steigerung der Effizienz, Erschließung des Datenpotenzials, Bereitstellung skalierbarer/maßgeschneiderter Lösungen und Unterstützung vertretbarer Ergebnisse. Lassen Sie mich nacheinander darauf eingehen.

    Ein Beispiel für die Effizienz, die wir unseren Kunden bieten, ist unsere Verwendung von IBM Netezza, das Geschwindigkeiten bietet, die 20- bis 2.500-mal so schnell sind wie herkömmliche Analyseplattformen. Die erhöhte Rechengeschwindigkeit von Netezza führt oft direkt zu wichtigen strategischen Vorteilen und Ergebnissen. Dazu können gehören:

    • Rechtzeitige Identifizierung von Datenqualitätsmängeln in produzierten Daten
    • Die Fähigkeit, die zahlreichen notwendigen Iterationen, Sensitivitäten und Robustheitsprüfungen für eine Expertenanalyse durchzuführen
    • Schnelle Bearbeitung dringender Anfragen, selbst bei großen Datensätzen, die normalerweise erhebliche Rechenzeit erfordern

    In Bezug auf die Erschließung von Potenzial beziehe ich mich auf unsere Fähigkeit, große Datenmengen zu verarbeiten und zu analysieren, die neue Untersuchungslinien eröffnen. Wir sind in der Lage, Analysen durchzuführen und Ideen zu verfolgen, die vor ein paar Jahren noch nicht realisierbar gewesen wären – oder deren Herstellung enorme Ressourcen gekostet hätte.

    Zum Beispiel im T-Mobile/Sprint-Fusionhaben unsere Experten analysiert, wie sich Verbraucher für Mobilfunkanbieter entscheiden und wie Mobilfunkanbieter im Wettbewerb stehen. Diese Analyse verwendete hochgradig granulare Daten mit Milliarden von Datenpunkten darüber, wann, wo und wie Verbraucher ihre Mobiltelefone benutzten. Data Science war in der Lage, einen Algorithmus zu konzipieren und zu erstellen, um diese Informationen effizient im Raum zu kategorisieren.

    In Bezug auf skalierbare/maßgeschneiderte Lösungen konzentriert sich das Data Science Center auf die Bereitstellung von Lösungen in der richtigen Größe. Beispielsweise können wir bei Bedarf maßgeschneiderte Analyseansätze entwickeln oder skalierbare Tools verwenden, um unsere Teams bei der Automatisierung der Analyse zu unterstützen. So können wir unseren Kunden nicht nur effiziente und sichere Datenanalysen in großem Umfang bieten, sondern auch kundenspezifische Anwendungen anbieten, die auf jahrelanger Erfahrung basieren.

    Mit „vertretbaren Ergebnissen“ beziehe ich mich auf die Fähigkeit unserer Experten, Analysen und Ergebnisse sowohl mit traditionellen Methoden als auch mit modernster Technologie, die von unserem Data Science Center unterstützt wird, zu demonstrieren und zu kommunizieren.

    Big Data ist ein Begriff, den wir seit einigen Jahren hören. Wie ist das Data Science Center von Cornerstone Research gerüstet, um die Herausforderungen einer zunehmend datengesteuerten Welt zu bewältigen?

    Eine interessante Herausforderung, die wir erfolgreich meistern konnten. Was diese Arbeit besonders herausfordernd macht, ist nicht nur, dass die Menge der Daten, die wir verarbeiten und analysieren müssen, exponentiell zugenommen hat, sondern auch die Arten von Formaten, die wir handhaben, explosionsartig zugenommen haben.

    Im Hinblick darauf, wie wir mit beträchtlichen Mengen an Echtzeit- und historischen Daten umgehen, haben wir stark in eine sichere, lokale Analyseinfrastruktur mit massiv parallelen Verarbeitungsfunktionen wie IBM Netezza investiert. Wir bearbeiten regelmäßig Fälle mit hunderten Milliarden Datensätzen. Wir haben auch Erfahrung in der Nutzung von Cloud-Computing-Funktionen für Überspannungsspeicher oder Rechenkapazität. Unser Team aus Programmierspezialisten und Dateningenieuren stellt sicher, dass wir umfangreiche Datenanalysen effizient und effektiv in einem Bruchteil der Zeit durchführen können, die früher in Anspruch genommen wurde.

    Die zweitgrößte Herausforderung bei Big Data besteht darin, dass wir oft gebeten werden, mit Kundendaten und anderen privaten und öffentlichen Quellen aus einer Vielzahl von Plattformen und inkompatiblen Formaten zu arbeiten, die verarbeitet werden müssen, um zuverlässige Daten bereitzustellen. Unsere Data-Science-Fähigkeiten ermöglichen es uns, Berater bei der effizienten und effektiven Verwaltung des Discovery- und Datenproduktionsprozesses zu unterstützen. Wir arbeiten auch mit Kunden zusammen, um Informationen im Vorgriff auf den Analysebedarf nachfolgender Arbeitsphasen sowie als Reaktion auf direkte Anfragen von Aufsichtsbehörden oder Prozessparteien zu extrahieren.

    Beispielsweise arbeitete das Data Science Center in einer Hochfrequenzhandelsangelegenheit mit mehreren Börsen zusammen, um auf mehr als 200 TB an Daten zuzugreifen, um das beste Protokoll für den Zugriff auf diese großen und komplexen Datensätze zu ermitteln und die relevanten zu identifizieren Teildatensätze, die für die notwendigen Analysen verwendet würden.

    Big Data umfasst auch zunehmend mehr als herkömmliche strukturierte Daten, die in Zeilen und Spalten vorliegen. Unsere Erfahrung mit KI und maschinellem Lernen ist wertvoll bei der Analyse unstrukturierter Daten, einschließlich Dokumente und Text, Bilder, Video und Audio.

    Wie können KI (künstliche Intelligenz) und ML (maschinelles Lernen) Expertenaussagen unterstützen?

    KI-basierte Systeme ersetzen menschliche Entscheidungen durch datengesteuerte. Dies kann Subjektivität und Fehler bei der Verarbeitung großer Mengen komplexer Informationen reduzieren. Wir nutzen KI und ML, um die Automatisierung immer komplexerer Aufgaben voranzutreiben und neue Ansätze für die Analyse zu erschließen, einschließlich der Verwendung von überwachtem und nicht überwachtem Lernen.

    Unsere maschinellen Lernfähigkeiten werden durch unsere hauseigenen Grafikprozessoren (GPUs) verbessert. GPUs bieten Rechengeschwindigkeiten, die sogar die der schnellsten Zentraleinheiten (CPUs) übertreffen. Beispielsweise müssen wir in Kartellsachen oft die Distanz zwischen allen Lieferanten und allen Verbrauchern berechnen (Koordinatenpaare). Durch die Migration dieser Berechnung von CPUs auf GPUs können wir Entfernungen zwischen fast 100 Millionen Koordinatenpaaren pro Sekunde berechnen.

    Social Media und Big Data sind die prominentesten Trends des 21. Jahrhunderts. Wie hilft das Data Science Center Unternehmen, mit diesen miteinander verflochtenen Technologien Schritt zu halten?

    Mit ihrer riesigen Nutzerbasis, die traditionelle Medien in den Schatten stellt, bieten Social-Media-Plattformen reichhaltige Datenquellen, die sich mit schwindelerregender Geschwindigkeit vermehren. In Rechtsstreitigkeiten ist es entscheidend zu wissen, wie man solche riesigen Datenmengen effektiv navigiert, sammelt und charakterisiert. Zusätzlich zu unserer tiefen Vertrautheit mit Social-Media-Datenquellen versetzt uns unsere Erfahrung mit KI- und ML-Tools in die Lage, die Relevanz und relative Bedeutung von Inhalten und Mitwirkenden zu beurteilen. Dies ist ein schnell wachsender Datenbereich, und die Erkenntnisse, die diese Quellen liefern, können entscheidend sein, um Expertenanalysen von Text, Inhalt und Stimmung zu unterstützen.

    Wie wäre es mit einigen Beispielen, um das zu veranschaulichen?

    Für eine groß angelegte Analyse von Reddit-Unterforen, allgemein bekannt als Subreddits, haben wir Webdaten-Pipelines und automatisierte Ansätze entwickelt, die ML nutzen, um die textuelle/kontextbezogene Relevanz eines Beitrags für interessante Themen zu bewerten und die Bedeutung eines bestimmten Beitrags im Vergleich zu anderen zu charakterisieren Beiträge im Unterforum.

    In Verbindung mit In Bezug auf Facebook Inc. IPO Securities and Derivative Litigationhaben wir fortgeschrittene Sprachmodelle eingesetzt, um Homographen in Tweets effektiv zu unterscheiden und Merkmale für einen ML-Klassifikator zu generieren. Dieser Rahmen erleichterte die zuverlässige und skalierbare Erkennung des öffentlichen Bewusstseins für mutmaßliche wesentliche Auslassungen vor der erforderlichen Offenlegung.

    Schließlich verfügen wir über umfangreiche Erfahrung mit Online-Verbraucherbewertungen von Produkten und Dienstleistungen – die zu den faszinierendsten (und anspruchsvollsten) Social-Media-Daten gehören. Diese Überprüfungen können Gegenstand von Rechtsstreitigkeiten sein, aber wenn sie richtig eingesetzt werden, können sie auch eine wertvolle Quelle für Daten aus der Praxis darstellen. Wir sind in der Lage, diese unverwechselbaren Daten auszuwerten, einschließlich der Bewertung der relativen Bedeutung von Produktmerkmalen, Änderungen der Kundenstimmung im Laufe der Zeit und betrügerischer Bewertungen.

    Können Sie etwas über die Investition von Cornerstone Research in das Data Science Center sagen? Welche Technologien und Schulungen unterstützen seine Arbeit?

    In Rechtsstreitigkeiten haben wir es oft mit sensiblen Kundeninformationen zu tun, daher haben wir stark in eine sichere Infrastruktur investiert, einschließlich leistungsstarker und durchsatzstarker Analyseserver und Speichercluster. Unsere analytische Infrastruktur befindet sich vor Ort, was bedeutet, dass Kundendaten nicht im Internet verfügbar sind.

    Wir haben auch in eine Reihe von handelsüblichen und proprietären Softwaretools, Paketen und Datenpipelines investiert, um eine effiziente Analyse zu ermöglichen. Bei der Arbeit mit Dokumenten verwenden wir beispielsweise Tools, um hochwertige Textebenen zu Dokumenten hinzuzufügen, Tabellendaten schnell zu extrahieren und maßgeschneiderte Ansätze zum Extrahieren anderer Schlüsselinformationen zu entwickeln.

    Schließlich haben wir in Menschen investiert. Wir verfügen über hervorragende Data Scientists und Praktiker mit langjähriger Erfahrung bei einer Vielzahl unterschiedlicher Kunden und Projekte. Mike DeCesaris, der Vizepräsident des Teams, hat einen Hintergrund in Wirtschaftsberatung und Informatik, was ihn in eine ideale Position bringt, um die tiefgreifenden Veränderungen zu bewältigen, denen Rechtsstreitigkeiten und Sachverständigengutachten in Bezug auf Daten weiterhin unterliegen.

    Wie arbeiten die internen Experten von Cornerstone Research und das Netzwerk externer Experten, zu denen Führungskräfte aus Wissenschaft und Industrie gehören, mit dem Data Science Center zusammen?

    Die Zeugenexperten von Cornerstone Research stehen an vorderster Front in Bezug auf Prozesstrends, Brancheninnovationen und akademische Forschung. Unsere Erfahrung mit der Implementierung anspruchsvoller Data-Science-Techniken wiederum unterstützt diese Experten bei ihren Analysen. Experten schätzen die Tatsache, dass wir ein so tiefes Verständnis von KI und maschinellem Lernen mitbringen, um komplexe Aufgaben zu automatisieren und analytische Ansätze zu entwickeln, die traditionelle ökonometrische und statistische Methoden ergänzen. Beispielsweise wendeten die Mitarbeiter von Data Science maschinelle Lernansätze auf Modelle zur Risikoanpassung im Gesundheitswesen an, die etwa doppelt so viele Schwankungen in den Anspruchsdaten erklärten wie das lineare Regressionsmodell des Status quo.

    Die in diesem Artikel geäußerten Ansichten sind ausschließlich die des Sprechers, der für den Inhalt verantwortlich ist, und geben nicht notwendigerweise die Ansichten von Cornerstone Research wieder.

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Jos
    • Website

    Related Posts

    Anwaltskanzleien können sich ihrer größten Bedrohung nicht stellen

    November 4, 2021

    Was ist los mit WhatsApp? Außer Kontrolle geratene Geschäftskommunikation

    October 3, 2021

    Die Beherrschung der zwischenmenschlichen Kommunikation ist einer der Schlüssel zum Erfolg

    October 1, 2021

    Leave A Reply Cancel Reply

    Unsere Auswahl

    Schreib weiter! Call for Abstracts zu „Fortschritt und Völkerrecht“

    February 2, 2022

    Perus Holzeinschlagsinteressen drohen die Wissenschaft auf dem Global Wildlife Summit zu überstimmen

    February 1, 2022

    Die COP27 muss Verluste und Schäden als die Menschenrechtskrise behandeln, die sie ist

    January 6, 2022

    News Roundup – Strafrecht von North CarolinaStrafrecht von North Carolina

    January 5, 2022
    Über uns
    Über uns

    „Der Staat nennt sein eigenes Gewaltrecht, aber das des Einzelnen Verbrechen.“
    – Max Stirner

    Abonnieren Sie Updates

    Unsere Auswahl

    Schreib weiter! Call for Abstracts zu „Fortschritt und Völkerrecht“

    February 2, 2022

    Perus Holzeinschlagsinteressen drohen die Wissenschaft auf dem Global Wildlife Summit zu überstimmen

    February 1, 2022

    Die COP27 muss Verluste und Schäden als die Menschenrechtskrise behandeln, die sie ist

    January 6, 2022
    Facebook Twitter Instagram Pinterest
    2022 © Clausilia.de Alle Rechte Vorbehalten

    Type above and press Enter to search. Press Esc to cancel.