In einer Zeit der Sparmaßnahmen und der Angst vor Kindesmissbrauch ist es vielleicht nicht verwunderlich, dass Sozialarbeiter sich an neue Technologien gewandt haben, um Hilfe zu erhalten.
Kommunalbehörden - welchen Gesichtspunkten steigende Nachfrage und ein Finanzierungsdefizit von £ 800m - beginnen sich zu fragen, ob Big Data helfen könnte, gefährdete Kinder zu identifizieren.
Könnte ein Computerprogramm eine Problemfamilie markieren, ein potenzielles Opfer identifizieren und ein anderes Baby P oder Victoria Climbié verhindern?
Vor Jahren waren solche Fragen nur Science-Fiction-Fragen. Jetzt sind sie das Zeug der Wissenschaft Tatsache.
Bristol ist ein Ort, an dem man mit diesen neuen Fähigkeiten experimentiert und sich mit den damit verbundenen moralischen und ethischen Fragen auseinandersetzt.
Gary Davies, der das Prognosesystem des Rates überwacht, kann die Vorteile erkennen.
Er argumentiert, dass es nicht bedeutet, Menschen aus dem Entscheidungsprozess herauszunehmen; es bedeutet vielmehr, Daten zu verwenden, um Menschen davon abzuhalten, Fehler zu machen.
"Es heißt nicht, dass Sie sexuell ausgebeutet werden oder vermisst werden", sagt Davies. „Es demonstriert die Verhaltensmerkmale, ausgenutzt zu werden oder vermisst zu werden. Es zeigt dieses Risiko und diese Verwundbarkeit auf. “
Solche Techniken haben jahrelang in anderen Bereichen funktioniert. Systeme für maschinelles Lernen, die zum Abbau großer Mengen personenbezogener Daten entwickelt wurden, werden seit langem zur Vorhersage des Kundenverhaltens im privaten Sektor eingesetzt.
Computerprogramme bewerten, wie wahrscheinlich ein Kreditausfall ist oder wie hoch das Risiko für einen Versicherer ist.
Designer eines Vorhersagemodells müssen eine „Ergebnisvariable“ identifizieren, die das Vorhandensein des Faktors angibt, den sie vorherzusagen versuchen.
Bei der Kindersicherung kann es sich um ein Kind handeln, das das Betreuungssystem betritt.
Sie versuchen dann, Merkmale zu identifizieren, die häufig bei Kindern auftreten, die in das Betreuungssystem eintreten. Sobald diese identifiziert wurden, kann das Modell mit großen Datenmengen verglichen werden, um andere Personen mit denselben Merkmalen zu finden.
Der Guardian erhielt Einzelheiten zu allen prädiktiven Indikatoren, die für die Aufnahme in das Kindersicherungssystem des Thurrock Council in Betracht gezogen wurden. Dazu gehören häusliche Gewalt, jugendliche Straftaten und Schulabbrecher.
Überraschendere Indikatoren wie Mietrückstände und Gesundheitsdaten wurden zunächst in Betracht gezogen, aber vom endgültigen Modell ausgeschlossen. Sowohl im Fall von Thurrock, einem Gemeinderat in Essex, als auch im Londoner Stadtteil Hackney können Familien Sozialarbeitern als potenzielle Kandidaten für das Troubled Families-Programm angezeigt werden. Durch dieses System erhalten die Räte Zuschüsse von der Zentralregierung, um Haushalten mit langfristigen Schwierigkeiten wie Arbeitslosigkeit zu helfen.
Solche Systeme werfen unweigerlich Datenschutzbedenken auf. Wajid Shafiq, Geschäftsführer von Xantura, dem Unternehmen, das sowohl Thurrock als auch Hackney Vorhersageanalysen anbietet, besteht darauf, dass ein ausgewogenes Verhältnis zwischen Datenschutzrechten und dem Einsatz von Technologie zur Erzielung eines Gemeinwohls besteht.