Niezależnie od tego, czy jesteście właścicielami małej firmy, czy programistami, zdobycie przydatnych wniosków z analizowanych danych może pomóc Wam w polepszeniu jakości usług i uzyskaniu odpowiedzi na istotne pytania. Ale bez silnej ochrony prywatności ryzykujecie utratą zaufania klientów czy użytkowników.

Prywatność różnicowa (ang. Differential Privacy) jest rozwiązaniem, dzięki któremu organizacje mogą korzystać z danych i wyciągać z nich wnioski, zapewniając jednocześnie, że ich rezultaty nie pozwalają na odróżnienie lub ponowne zidentyfikowanie indywidualnych informacji na temat żadnej z osób.

Ten rodzaj analizy danych można wykorzystać na wiele różnych sposobów i do różnych celów. Na przykład, jeśli zajmujecie się analizą danych w służbie zdrowia, możecie porównać średni czas pozostawania pacjentów w różnych szpitalach w celu ustalenia, czy istnieją różnice w jakości opieki. Prywatność różnicowa jest podejściem analitycznym zapewniającym wysoką ochronę i dającym gwarancję, że przykłady takie jak ten są analizowane w sposób chroniący prywatność.

Dzisiaj udostępniamy Wam otwartą wersję biblioteki prywatności różnicowej, która jest elementem wielu podstawowych usług Google. Aby była możliwie łatwa w użyciu dla programistów, skupiamy się na funkcjach, które mogą być szczególnie trudne do wdrożenia do zera, jak np. automatyczne ograniczanie wkładu użytkowników. Jest teraz dostępna za darmo dla każdej organizacji czy programisty, który będzie chciał jej użyć.


Głębsze spojrzenie na technologię

Nasza biblioteka open source została zaprojektowana w celu zaspokojenia potrzeb programistów. Oprócz tego, że jest swobodnie dostępna, chcieliśmy, aby była łatwa do wdrożenia i użyteczna.

Oto jej kluczowe możliwości:


  • Funkcje statystyczne: w tej wersji obsługiwane są najczęściej używane operacje związane z analizą danych. Programiści mogą obliczać liczby, sumy, średnie, mediany i percentyle.
  • Rygorystyczne testy: Właściwe wdrożenie prywatności różnicowej jest skomplikowane. Oprócz obszernego zestawu testów, dodaliśmy rozszerzalną bibliotekę „Stochastic Differential Privacy Model Checker”, aby zapobiec błędom.
  • Gotowość do użycia: prawdziwym testem użyteczności wersji open source jest udzielenie odpowiedzi na pytanie „Czy mogę jej od razu użyć?” Dlatego dołączyliśmy rozszerzenie PostgreSQL wraz z typowymi przykładami na początek. Nasze podejście do problemu, szczegółowo opisaliśmy w dokumencie technicznym, także dostępnym od dzisiaj.
  • Modułowość: Biblioteka została zaprojektowana w taki sposób, aby można ją rozszerzyć o inne funkcje, takie jak dodatkowe mechanizmy, funkcje agregujące czy zarządzanie budżetem prywatności.


Inwestycje w technologie związane z prywatnością

Prace nad badaniem i wdrożeniem prywatności różnicowej prowadzimy od czasu wprowadzenia rozwiązania RAPPOR, pomagającego ulepszyć Chrome w 2014 r. i od tamtego czasu nadal jesteśmy w czołówce firm stosujących te rozwiązania w publicznie dostępnych produktach.


W tym roku ogłosiliśmy kilka technologii ochrony prywatności open source - Tensorflow Privacy, Tensorflow Federated, Private Join i Compute - dzisiejsza nowość rozszerza tę listę. Mamy nadzieję, że te narzędzia przysłużą się wszystkim - od branży medycznej, przez administrację publiczną po biznes.

Podziękowania:
Software Engineers: Alain Forget, Bryant Gipson, Celia Zhang, Damien Desfontaines, Daniel Simmons-Marengo, Ian Pudney, Jin Fu, Michael Daub, Priyanka Sehgal, Royce Wilson, William Lam

https://lh4.googleusercontent.com/m_9YIW49tNTn0QDhBMJKtL7RHoHAGvrg4Imhx-KkLLbiwnA0lY3LJDU8dL6KwQuN24FtkzPG9gJLjIJ64YqkKEmjxdTIJIEfnMN9U4_37P5Wh7EB4Aa21GAzjm55iVGthRMFH-6f