Eine umfassende Studie über den humanitären Sektor der Welt ergab, dass nicht klar ist, welche Rechte die Schwächsten der Welt mit ihren Daten haben.

Es brauche mehr Transparenz darüber, wie humanitäre Hilfsorganisationen mit den Daten der am stärksten gefährdeten Menschen der Welt umgehen, sagte eine gemeinnützige Organisation für digitale Rechte.

Das Kürzliche Berichtvon Access Now basierte auf 45 Interviews mit Experten aus der humanitären Hilfe, Technologieunternehmen und dem öffentlichen Sektor.

Ihre Untersuchungen ergaben, dass es 220 sind Technologieunternehmen die im humanitären Sektor tätig sind, und mindestens 14 Unternehmen, die in der Mitte tätig sind, um Geschäfte zu vermitteln.

Diese Partnerschaften „sind in der Regel undurchsichtig, werden zunehmend in wenigen Händen konsolidiert, handeln mit den Daten der am stärksten gefährdeten Menschen der Welt und bieten gierigen Datenmaklern und -vermittlern einen fruchtbaren Boden“, so die gemeinnützige Organisation.

Wenn Menschen in Not Zugang zu Hilfe haben, stellen sie persönliche Informationen über sich selbst und ihre Familien zur Verfügung, die dann verwendet werden, um ihnen das zu geben, was sie brauchen.

Der Bericht stellte fest, dass eine kleine Anzahl von Technologieunternehmen um „magere Mittel“ konkurrieren, um die Informationsspeicherung für eine Handvoll Hilfsorganisationen anzupassen, die den Löwenanteil der weltweiten Finanzierung erhalten.

Fast die Hälfte der weltweiten Hilfe geht dem Bericht zufolge an drei UN-Organisationen: das Welternährungsprogramm, UNHCR und UNICEF.

„Es gibt eine Abkehr von kleinen, innovativen Unternehmen und eine Tendenz zum Horten von Verträgen … seitens derjenigen, die mit dem Innenleben dieser Prozesse vertraut sind“, heißt es in dem Bericht weiter.

„Verletzung digitaler Rechte“

Außerdem gebe es weder von humanitären noch von Technologieunternehmen Angaben darüber, wie sie beim Schutz personenbezogener Daten zusammenarbeiten, heißt es in dem Bericht weiter.

Das bedeute, dass es für Hilfesuchende noch schwieriger sei, der Verwendung ihrer Daten zuzustimmen, was „eine direkte Verletzung der digitalen Rechte gefährdeter Gemeinschaften“ zur Folge habe.

Einige Hilfsorganisationen senden persönliche Informationen an ausländische Cloud-Speicher, sodass die Regierung eines Konfliktgebiets nicht auf diese Daten zugreifen kann.

Doch der Datenfluss der NGO, einschließlich der Art und Weise, wie diese Informationen gespeichert werden, wird von dem Technologieunternehmen, mit dem sie zusammenarbeiten, vorab festgelegt. Daher haben Dateneigentümer in Konfliktgebieten keine Wahl darüber, wie und wo ihre Informationen gespeichert werden – wenn sie Hilfe benötigen.

Die persönlichen Daten werden anonymisiert, bevor sie in die Cloud gelangen, so der Bericht, was sie sicher macht. Sie können jedoch mit anderen Datensätzen kombiniert werden, die die Informationen offenlegen.

Daher, so die Autoren weiter, bestehe immer noch die Möglichkeit, dass diese Informationen dazu verwendet werden könnten, Schaden anzurichten oder bestimmte gefährdete Personen oder Gemeinschaften zu profilieren.

„Grundlegende Datenrechte wie der Widerruf der Einwilligung oder die Bearbeitung und Löschung von Datensätzen oder sogar Rechtsbehelfe im Falle eines Unfalls oder Schadens sind sehr schwer zu definieren und fast unmöglich zu erreichen“, schließt der Bericht.

„Die Art und Weise, wie wir diese Tools nutzen, hat keine negativen Auswirkungen“

Die Grenze zwischen dem Technologie- und dem humanitären Sektor werde im Laufe der Zeit immer fließender, heißt es in dem Bericht weiter.

In Europa tätige humanitäre Organisationen müssen Datenschutz-Folgenabschätzungen (DPIAs) durchführen – ein Prozess, um die Risiken der Verarbeitung personenbezogener Daten zu ermitteln und diese zu minimieren. Sie werden verwendet, um zu zeigen, dass eine Organisation oder ein Unternehmen die europäischen Vorschriften einhält.

Die Studie ergab, dass große UN-Organisationen und internationale NGOs diese Bewertungen durchführen, die Technologieunternehmen, die die Datenerfassung durchführen, dies jedoch oft nicht tun, was bedeutet, dass es schwierig ist zu wissen, welche ethischen Standards eingehalten werden.

Einige Hilfsorganisationen wie das UNHCR und das Internationale Komitee vom Roten Kreuz (IKRK) forschen an stärkeren Datenschutz- und Biometriepraktiken.

„Digitale Technologien sind zum Zentrum … gesellschaftlicher Debatten über ihre Auswirkungen auf Menschen und Gemeinschaften geworden, einschließlich Fragen der Datenerfassung“, sagte das IKRK in einer Erklärung gegenüber Euronews Next.

„Wir wollen sicherstellen, dass die Art und Weise, wie wir diese Tools nutzen, keine negativen Auswirkungen auf die Menschen, denen wir helfen, oder auf unsere Wahrnehmung hat.“

Laut Access Now wählen NGOs ihre technischen Lösungen jedoch nach „finanzieller Zugänglichkeit“ und nicht nach Ethik aus.

Sie konnten auch keinen humanitären Akteur finden, der Kontrollen auf Interessenkonflikte zwischen Lieferanten oder Partnern durchführt.

Der Bericht enthält mehrere Empfehlungen, beispielsweise die Offenlegung etwaiger Interessenkonflikte durch Technologieunternehmen. Für humanitäre Organisationen schlagen die Autoren eine bessere Verfolgung, Überwachung und Offenlegung der Art und Weise vor, wie Daten erfasst und gespeichert werden.

Share.
Exit mobile version