Tinder wprowadza w swojej platformie sztuczną inteligencję (AI), która ma wykrywać i blokować użytkowników zachowujących się niestosowne. 72 proc. osób korzystających z aplikacji randkowych przyznaje, że zablokowało kogoś za złe zachowanie.
Jak donosi portal technologiczny TechCrunch, użytkownicy Tindera będą mogli teraz skorzystać z algorytmów uczenia maszynowego aplikacji, żeby blokować osoby, których zachowanie uznają za nieodpowiednie. Firma ma nadzieję, że dzięki nowej technologii platforma stanie się bardziej przyjazna.
Jeżeli AI Tindera wykryje napastliwy lub agresywny język wiadomości, wyśle jej adresatowi zapytanie: "Czy takie zachowanie ci odpowiada?". W przypadku odpowiedzi odmownej - agresywny użytkownik zostanie zgłoszony. Jego aktywność zostanie również ograniczona, a nawet zablokowana.
"Z czasem algorytm nauczy się bardzo dobrze rozpoznawać, jaki język jest lub nie jest obraźliwy. Dzięki temu będziemy mogli naszym użytkownikom zaoferować bezpieczniejszą i bardziej spersonalizowaną aplikację randkową" - napisał w swoim oświadczeniu Tinder.
Jak zauważa TC, przynajmniej początkowa anonimowość zapewniana użytkownikom aplikacji może zachęcać do negatywnych, zaczepnych zachowań (w tym tzw. trollingu).
Według przytaczanych przez serwis statystyk, 72 proc. użytkowników aplikacji randkowych przyznało, iż zdarzyło im się zablokować drugą osobę z uwagi na jej nieodpowiednie zachowanie. 60 proc. użytkowników Tindera zgłosiło, że spotkało się z nękaniem lub nieodpowiednimi propozycjami. 11 proc. przyznało, że z tego powodu odinstalowało aplikację, ponieważ nie czuło się bezpiecznie.