Return to Video

Come Twitter deve cambiare

  • 0:01 - 0:04
    Chris Anderson: Che cosa ti preoccupa ora?
  • 0:04 - 0:06
    Sei stato molto aperto
    su molti problemi di Twitter.
  • 0:06 - 0:09
    Qual è la tua principale preoccupazione
  • 0:09 - 0:11
    sullo stato delle cose oggi?
  • 0:11 - 0:14
    Jack Dorsey: Oggi,
    lo stato di salute del dialogo.
  • 0:14 - 0:18
    Il nostro obiettivo è servire
    il dialogo pubblico,
  • 0:18 - 0:23
    che è stato attaccato più volte.
  • 0:23 - 0:26
    Ha subito abusi, molestie,
  • 0:26 - 0:29
    manipolazioni,
  • 0:29 - 0:33
    automazioni, disinformazione,
    coordinamento umano.
  • 0:34 - 0:38
    Sono tutte dinamiche
    che non ci aspettavamo
  • 0:38 - 0:42
    quando abbiamo fondato
    l'azienda, 13 anni fa.
  • 0:42 - 0:45
    Oggi ci sono su larga scala, invece,
  • 0:45 - 0:50
    e quello che mi preoccupa di più
    è la nostra capacità di gestirli
  • 0:50 - 0:53
    in modo sistematico e scalabile,
  • 0:53 - 1:00
    con una comprensione rigorosa
    di come stiamo intervenendo,
  • 1:00 - 1:03
    una comprensione trasparente
    di come stiamo intervenendo
  • 1:03 - 1:06
    e un processo di scrutinio rigoroso
    per quando faremo sbagli.
  • 1:06 - 1:08
    Perché ne faremo, prima o poi.
  • 1:08 - 1:11
    Whitney Pennington Rodgers:
    sono felice di sentire
  • 1:11 - 1:13
    che è una cosa che ti preoccupa,
  • 1:13 - 1:16
    perché credo sia stato
    scritto molto di gente
  • 1:16 - 1:18
    che si è sentita aggredita
    e molestata su Twitter,
  • 1:18 - 1:22
    e credo nessuno più delle donne
    e delle donne di colore
  • 1:22 - 1:23
    e donne nere.
  • 1:23 - 1:25
    Sono usciti dei dati --
  • 1:25 - 1:28
    Amnesty International ha pubblicato
    un rapporto qualche mese fa
  • 1:28 - 1:33
    che mostrava come una serie
    di donne di colore attive su Twitter,
  • 1:33 - 1:36
    subisca in media,
    in risposta a un tweet su dieci,
  • 1:36 - 1:38
    una qualche forma di aggressione.
  • 1:38 - 1:42
    Quando pensi allo stato di salute
    della comunità su Twitter,
  • 1:42 - 1:46
    sono felice di sentire
    "salute per tutti".
  • 1:46 - 1:49
    Ma nello specifico, come renderai
    Twitter un luogo più sicuro
  • 1:49 - 1:54
    per quelle donne di colore e donne nere?
  • 1:54 - 1:55
    JD: Sì.
  • 1:55 - 1:57
    È una situazione piuttosto terribile
  • 1:57 - 1:59
    quando aderisci a un servizio
  • 1:59 - 2:03
    da cui, idealmente,
    vuoi imparare qualcosa del mondo,
  • 2:03 - 2:09
    e passi più tempo
    a segnalare e ricevere molestie,
  • 2:09 - 2:11
    subire violenza.
  • 2:14 - 2:18
    Quello che cerchiamo
    di approfondire sono gli incentivi
  • 2:18 - 2:22
    che la piattaforma e il servizio
    forniscono naturalmente.
  • 2:22 - 2:25
    Con la dinamica attuale del sistema,
  • 2:25 - 2:31
    è facilissimo molestare e insultare altri
    attraverso il servizio.
  • 2:31 - 2:34
    E purtroppo, in passato
    gran parte del sistema
  • 2:34 - 2:39
    era interamente basato
    sulla segnalazione di molestie e insulti.
  • 2:39 - 2:45
    A metà dell'anno scorso,
    abbiamo deciso che avremmo applicato
  • 2:45 - 2:49
    molto più apprendimento automatico,
    nel trattare la questione,
  • 2:49 - 2:53
    e avremmo cercato di essere
    molto più proattivi sulle molestie,
  • 2:53 - 2:57
    in modo da farci carico completamente
    del problema della vittima.
  • 2:57 - 3:00
    Abbiamo fatto progressi recentemente.
  • 3:00 - 3:06
    Il 38 percento circa dei tweet molesti
    è ora correttamente identificato
  • 3:06 - 3:08
    da algoritmi di apprendimento automatico,
  • 3:08 - 3:10
    così la gente non deve nemmeno segnalarli.
  • 3:10 - 3:14
    Ma quelli che vengono identificati
    vengono comunque controllati da persone,
  • 3:14 - 3:19
    in modo da non rimuovere contenuti
    o account senza prima controllare.
  • 3:19 - 3:22
    Siamo partiti da zero solo un anno fa.
  • 3:22 - 3:24
    "Da zero" significa
  • 3:24 - 3:28
    che ogni singolo utente molestato
    doveva segnalarlo,
  • 3:28 - 3:31
    il che significa impegno degli utenti,
    e molto lavoro per noi,
  • 3:31 - 3:33
    il che è ingiusto.
  • 3:35 - 3:38
    L'altra cosa che facciamo
    è assicurarci che in quanto azienda,
  • 3:38 - 3:41
    siamo rappresentati da tutte le comunità
    che cerchiamo di servire.
  • 3:41 - 3:44
    Non possiamo costruire
    un'azienda di successo
  • 3:44 - 3:47
    senza una diversità di prospettive
    nel nostro ufficio,
  • 3:47 - 3:51
    che vive questi problemi quotidianamente.
  • 3:51 - 3:55
    E non solo nel team che fa il lavoro,
  • 3:55 - 3:57
    ma anche tra i leader.
  • 3:57 - 4:03
    Dobbiamo continuare a creare empatia
    in quello che la gente vive
  • 4:03 - 4:06
    e darle più strumenti per agire
  • 4:06 - 4:10
    e dare anche ai nostri clienti
    un approccio migliore e più facile
  • 4:10 - 4:13
    per gestire alcune cose che vedono.
  • 4:13 - 4:16
    Molto di quello che facciamo
    è tecnologico,
  • 4:16 - 4:20
    ma analizziamo anche
    gli incentivi del servizio:
  • 4:20 - 4:25
    cosa ti spinge a fare, Twitter,
    la prima volta che lo apri?
  • 4:25 - 4:27
    In passato,
  • 4:29 - 4:34
    ha alimentato offese,
    ha alimentato movimenti di massa,
  • 4:34 - 4:37
    ha alimentato molestie di gruppo.
  • 4:37 - 4:40
    E dobbiamo approfondire molto le basi
  • 4:40 - 4:43
    di come il servizio agisce
    per i grandi cambiamenti.
  • 4:43 - 4:47
    Possiamo fare tanti piccoli
    cambiamenti tecnologici, come ho detto;
  • 4:47 - 4:52
    ma in definitiva dobbiamo approfondire
    le dinamiche della rete stessa,
  • 4:52 - 4:53
    ed è quello che stiamo facendo.
  • 4:53 - 4:55
    CA: Ma qual è il senso --
  • 4:55 - 4:59
    che tipo di cose potreste cambiare
  • 4:59 - 5:02
    che potrebbe modificare il comportamento?
  • 5:03 - 5:05
    JD: Una delle cose --
  • 5:05 - 5:10
    abbiamo iniziato il servizio
    con il concetto di seguire un account,
  • 5:10 - 5:12
    ad esempio,
  • 5:12 - 5:16
    e non credo sia questo il motivo
    per cui la gente arriva su Twitter.
  • 5:16 - 5:21
    Credo che Twitter funzioni meglio
    come rete basata sugli interessi.
  • 5:21 - 5:25
    La gente arriva
    con un particolare interesse.
  • 5:25 - 5:28
    Deve impegnarsi molto per trovare
    e seguire gli account giusti
  • 5:28 - 5:30
    che ruotano attorno a quegli interessi.
  • 5:30 - 5:34
    Potremmo invece consentire
    di seguire un argomento,
  • 5:34 - 5:36
    seguire un hashtag, seguire un trend,
  • 5:36 - 5:38
    seguire una comunità,
  • 5:38 - 5:42
    il che ci dà l'opportunità
    di mostrare tutti gli account,
  • 5:42 - 5:46
    tutti gli argomenti, momenti, hashtag
  • 5:46 - 5:50
    associati a quell'interesse,
    o a quell'argomento,
  • 5:50 - 5:54
    il che allarga le prospettive.
  • 5:54 - 5:56
    Ma è un cambiamento importante
  • 5:56 - 6:00
    spostare l'intera rete
    dal principio di un solo account
  • 6:00 - 6:03
    al principio di argomento o interesse.
  • 6:03 - 6:06
    CA: Perché non è vero
  • 6:07 - 6:11
    che un motivo per cui
    avete tanto contenuto
  • 6:11 - 6:15
    è frutto del mettere insieme
    milioni di persone nel mondo
  • 6:15 - 6:18
    l'uno contro l'altro
    in questa specie di arena di gladiatori
  • 6:18 - 6:20
    per i follower, per l'attenzione?
  • 6:20 - 6:24
    Dal punto di vista di utenti
    che leggono solo Twitter,
  • 6:24 - 6:25
    non è un problema,
  • 6:25 - 6:29
    ma per chi lo crea, sono tutti lì a dire,
  • 6:29 - 6:32
    "Sai, vorrei tanto avere
    più 'like', 'follower', 'retweet'."
  • 6:32 - 6:34
    Quindi continuano a sperimentare,
  • 6:34 - 6:36
    in cerca della strada giusta.
  • 6:36 - 6:40
    Abbiamo scoperto che il modo migliore
  • 6:40 - 6:47
    è essere provocatori, insopportabili,
    eloquentemente molesti,
  • 6:47 - 6:50
    gli insulti eloquenti
    sono un sogno su Twitter,
  • 6:50 - 6:53
    si accumula rapidamente --
  • 6:53 - 6:57
    diventa un processo di rabbia
    che si auto-alimenta.
  • 6:57 - 7:00
    Come si può disinnescare?
  • 7:01 - 7:04
    JD: Hai colto il punto,
  • 7:04 - 7:05
    ma questo ci riporta agli incentivi.
  • 7:05 - 7:08
    Una delle scelte
    che abbiamo fatto agli inizi
  • 7:08 - 7:13
    è stata mostrare il numero di follower.
  • 7:13 - 7:16
    Abbiamo deciso che quel numero
    doveva essere bello grande,
  • 7:16 - 7:20
    e tutto ciò che è bello grande
    sulla pagina è importante,
  • 7:20 - 7:22
    e quelle sono le cose da spingere.
  • 7:22 - 7:24
    È stata la decisione giusta all'epoca?
  • 7:24 - 7:25
    Probabilmente no.
  • 7:25 - 7:28
    Se dovessi ricominciare,
    non enfatizzerei così tanto i follower.
  • 7:29 - 7:32
    Non enfatizzerei tanto
    il conteggio dei 'like'.
  • 7:32 - 7:35
    Non credo nemmeno che creerei i 'like',
  • 7:35 - 7:38
    perché in realtà non spinge
  • 7:38 - 7:41
    quello che ora crediamo
    sia la cosa più importante,
  • 7:41 - 7:44
    ossia un valido contributo alla rete
  • 7:44 - 7:47
    e al dialogo in rete,
  • 7:47 - 7:49
    la partecipazione alla conversazione,
  • 7:49 - 7:52
    imparare qualcosa dalla conversazione.
  • 7:52 - 7:54
    Non sono cose a cui,
    13 anni fa, avevamo pensato
  • 7:54 - 7:57
    e crediamo siano molto importanti ora.
  • 7:57 - 8:00
    Dobbiamo analizzare
    come mostriamo i follower,
  • 8:00 - 8:02
    come mostriamo il conteggio dei retweet,
  • 8:02 - 8:04
    come mostriamo i 'like',
  • 8:04 - 8:06
    e porci la domanda importante:
  • 8:06 - 8:09
    è questo il vero numero
    che vogliamo far aumentare?
  • 8:09 - 8:12
    Aprendo Twitter,
    è questo il punto centrale:
  • 8:12 - 8:14
    "Che cosa devo far aumentare?"
  • 8:14 - 8:16
    Non credo sia così, ora.
  • 8:16 - 8:19
    (Applausi)
  • 8:19 - 8:21
    WPR: Credo che dovremmo
    analizzare alcuni tweet
  • 8:21 - 8:23
    che arrivano dal pubblico.
  • 8:24 - 8:26
    CA: Vediamo cosa state chiedendo.
  • 8:26 - 8:30
    Una delle cose straordinarie di Twitter
  • 8:30 - 8:32
    è come si può usare
    il contributo del pubblico,
  • 8:32 - 8:37
    più conoscenza, più domande,
    più punti di vista
  • 8:37 - 8:38
    di quanto si possa immaginare.
  • 8:38 - 8:42
    E alcuni, talvolta, sono molto validi.
  • 8:42 - 8:45
    WPR: Uno che ho visto passare velocemente,
  • 8:45 - 8:49
    "Qual è il piano di Twitter per combattere
    l'ingerenza straniera alle elezioni 2020?"
  • 8:49 - 8:51
    Credo sia un problema
  • 8:51 - 8:53
    per Internet in generale,
  • 8:53 - 8:56
    le attività ostili automatizzate.
  • 8:56 - 9:02
    Su Twitter, per esempio, lavoriamo
  • 9:02 - 9:05
    con i nostri amici di Zignal Labs,
  • 9:05 - 9:09
    magari possiamo anche vedere
    un esempio di quel che dico.
  • 9:09 - 9:13
    Ci sono questi bot, se volete,
  • 9:13 - 9:17
    o attività ostile
    automatizzata e coordinata
  • 9:17 - 9:20
    di account che vengono utilizzati
    per influenzare cose come le elezioni.
  • 9:20 - 9:24
    In questo esempio che Zignal ha condiviso,
  • 9:24 - 9:26
    utilizzando i dati di Twitter,
  • 9:26 - 9:28
    vedete che in questo caso,
  • 9:28 - 9:33
    il bianco rappresenta account di persone,
    ogni punto è un account.
  • 9:33 - 9:36
    Più è rosa, più l'attività
    è automatizzata.
  • 9:36 - 9:42
    Vedete che alcune persone
    interagiscono con i bot.
  • 9:42 - 9:46
    In questo caso, è legato
    alle elezioni in Israele
  • 9:46 - 9:49
    e la disinformazione diffusa
    su Benny Gantz,
  • 9:49 - 9:52
    e sappiamo che alle elezioni
  • 9:52 - 9:56
    Netanyahu ha vinto con pochissimo margine,
  • 9:56 - 9:59
    e potrebbe esserne stato influenzato.
  • 9:59 - 10:01
    Se pensate a quello
    che succede su Twitter,
  • 10:01 - 10:04
    cosa fate, nello specifico,
  • 10:04 - 10:07
    per assicurarvi che non si diffonda
    disinformazione come questa,
  • 10:07 - 10:12
    che influenza la gente
    compromettendo la democrazia?
  • 10:12 - 10:13
    JD: Torniamo indietro un attimo,
  • 10:13 - 10:16
    ci siamo fatti una domanda:
  • 10:16 - 10:20
    possiamo misurare lo stato di salute
    della conversazione politica,
  • 10:20 - 10:22
    e cosa ne ricaviamo?
  • 10:22 - 10:25
    Così come voi avete indicatori
  • 10:25 - 10:28
    e noi umani abbiamo indicatori
    dello stato di salute,
  • 10:28 - 10:33
    come la temperatura, il rossore del viso,
  • 10:33 - 10:38
    crediamo di poter trovare degli indicatori
    dello stato di salute della conversazione.
  • 10:38 - 10:42
    Abbiamo lavorato con un laboratorio
    di nome Cortico all'MIT
  • 10:42 - 10:49
    per proporre quattro indicatori
  • 10:49 - 10:52
    che crediamo possano misurare il sistema.
  • 10:53 - 10:59
    Il primo è quello che chiamiamo
    attenzione condivisa.
  • 10:59 - 11:02
    È un indicatore di quanto
    è concentrata la conversazione
  • 11:02 - 11:05
    sullo stesso argomento,
    piuttosto che dispersa.
  • 11:06 - 11:09
    Il secondo si chiama realtà condivisa,
  • 11:09 - 11:11
    ed è la percentuale di conversazione
  • 11:11 - 11:14
    che condivide gli stessi fatti --
  • 11:14 - 11:17
    non se quei fatti sono veri o no,
  • 11:17 - 11:20
    ma se condividiamo gli stessi fatti
    mentre dialoghiamo.
  • 11:20 - 11:23
    Il terzo è la ricettività:
  • 11:23 - 11:27
    quanto della conversazione
    è aperta e civile
  • 11:27 - 11:30
    o viceversa, tossica?
  • 11:30 - 11:33
    Il quarto è la diversità di prospettive.
  • 11:33 - 11:37
    Siamo in bolle informative
    o in echo-chamber,
  • 11:37 - 11:40
    o siamo davvero esposti
    a una varietà di opinioni,
  • 11:40 - 11:41
    nelle conversazioni?
  • 11:41 - 11:45
    Implicito in tutti e quattro è l'idea
  • 11:45 - 11:49
    che più aumentano,
    più la conversazione è sana.
  • 11:49 - 11:54
    Il primo passo è vedere
    se possiamo misurarle online,
  • 11:54 - 11:55
    e crediamo di poterlo fare.
  • 11:55 - 11:58
    Abbiamo più slancio nella ricettività.
  • 11:58 - 12:03
    Abbiamo una scala o un modello
    di tossicità, nel nostro sistema
  • 12:03 - 12:09
    che può misurare se stai per andartene
    dalla conversazione su Twitter
  • 12:09 - 12:11
    perché hai la sensazione che sia tossica,
  • 12:11 - 12:13
    e ha ottime capacità di previsione.
  • 12:14 - 12:17
    Stiamo lavorando
    alla misurazione del resto.
  • 12:17 - 12:22
    E il prossimo passo,
    mentre cerchiamo nuove soluzioni,
  • 12:22 - 12:25
    è osservare come variano
    queste misure nel tempo
  • 12:25 - 12:27
    e continuare a sperimentare.
  • 12:27 - 12:31
    Il nostro obiettivo è assicurarci
    che siano equilibrate,
  • 12:31 - 12:35
    perché se ne aumenti una,
    potresti ridurre l'altra.
  • 12:35 - 12:37
    Se aumenta la diversità di prospettiva,
  • 12:37 - 12:40
    potrebbe ridursi la realtà condivisa.
  • 12:40 - 12:45
    CA: Prendiamo qualcuna
    delle domande che stanno arrivando.
  • 12:45 - 12:46
    JD: Un continuo di domande.
  • 12:47 - 12:52
    CA: Molti si chiedono
    perché mai sia così difficile
  • 12:52 - 12:55
    liberare Twitter dai nazisti.
  • 12:56 - 12:58
    JD: (Risate)
  • 12:58 - 13:05
    Abbiamo regole per gruppi
    violenti ed estremisti,
  • 13:05 - 13:09
    e gran parte del nostro lavoro
    e i termini del servizio
  • 13:09 - 13:13
    funzionano sul comportamento,
    non sul contenuto.
  • 13:13 - 13:15
    Sono i comportamenti, che cerchiamo.
  • 13:15 - 13:18
    "Comportamento" significa
    usare questo servizio
  • 13:18 - 13:22
    per molestare qualcuno
    ripetutamente o episodicamente,
  • 13:22 - 13:25
    usare immagini cariche di odio
  • 13:25 - 13:27
    che potrebbero essere associate al KKK
  • 13:27 - 13:30
    o al Partito Nazista Americano.
  • 13:30 - 13:34
    Sono tutte cose su cui
    interveniamo immediatamente.
  • 13:35 - 13:40
    Siamo in una situazione in cui
    il termine viene usato liberamente,
  • 13:40 - 13:46
    e non possiamo intervenire
    ad ogni uso della parola
  • 13:46 - 13:48
    accusando qualcuno
  • 13:48 - 13:52
    come elemento per rimuoverlo
    dalla piattaforma.
  • 13:52 - 13:54
    Molti dei nostri modelli sono basati su:
  • 13:54 - 13:58
    Uno, questo account è associato
    a un gruppo estremista violento?
  • 13:58 - 14:00
    Se così fosse, possiamo intervenire.
  • 14:00 - 14:03
    Lo abbiamo fatto sul KKK,
    sul Partito Nazista Americano e altri.
  • 14:03 - 14:08
    Due: usano immagini o comportamenti
  • 14:08 - 14:10
    che li associano a questi gruppi?
  • 14:10 - 14:15
    CA: Quante persone lavorano
    alla moderazione dei contenuti?
  • 14:15 - 14:16
    JD: Dipende.
  • 14:16 - 14:18
    Vogliamo essere flessibili,
  • 14:18 - 14:20
    perché vogliamo essere certi
    di costruire algoritmi
  • 14:20 - 14:25
    invece di assumere persone
    in modo indiscriminato,
  • 14:25 - 14:28
    perché dobbiamo assicurarci
    che sia scalabile,
  • 14:28 - 14:31
    e non c'è quantità di persone
    che lo possa fare su larga scala.
  • 14:31 - 14:38
    Ecco perché abbiamo lavorato tanto
    sulla rilevazione proattiva degli abusi
  • 14:38 - 14:40
    che le persone possono poi controllare.
  • 14:40 - 14:42
    Vogliamo una situazione
  • 14:42 - 14:46
    in cui gli algoritmi setacciano
    in continuazione ogni singolo tweet
  • 14:46 - 14:48
    portando alla luce i più interessanti
  • 14:48 - 14:52
    in modo che le persone possano valutare
    se prendere provvedimenti o no,
  • 14:52 - 14:54
    secondo i termini del servizio.
  • 14:54 - 14:57
    WPR: Nessuna quantità di persone
    funziona su larga scala,
  • 14:57 - 15:00
    ma quante persone avete oggi
    sul controllo degli account,
  • 15:00 - 15:03
    e come capite quando sono abbastanza?
  • 15:03 - 15:05
    JD: Sono assolutamente flessibili.
  • 15:05 - 15:08
    Qualche volta associamo
    la gente allo spam.
  • 15:08 - 15:12
    Qualche volta l'associamo
    all'abuso e alla molestia.
  • 15:12 - 15:15
    Ci assicureremo di avere
    flessibilità nelle persone
  • 15:15 - 15:17
    in modo da indirizzarle
    dove sono necessarie.
  • 15:17 - 15:19
    Talvolta le elezioni.
  • 15:19 - 15:23
    Ci sono state le elezioni in Messico,
    tra poco ci saranno in India,
  • 15:23 - 15:28
    ovviamente le elezioni l'anno scorso,
    quelle di metà mandato;
  • 15:28 - 15:30
    vogliamo essere flessibili
    con le risorse.
  • 15:30 - 15:33
    Quando la gente --
  • 15:33 - 15:39
    ad esempio, se controllate
    i termini del servizio
  • 15:39 - 15:41
    e guardate sulla pagina in alto,
  • 15:41 - 15:44
    e per abusi e molestie che avete ricevuto
  • 15:44 - 15:48
    vi chiedete se sono contrari
    ai termini del servizio per segnalarli,
  • 15:48 - 15:51
    la prima cosa che vedete
    aprendo quella pagina
  • 15:51 - 15:54
    è la protezione
    della proprietà intellettuale.
  • 15:55 - 16:00
    Scendete e arrivate ad abusi e molestie
  • 16:00 - 16:02
    e qualunque cosa viviate.
  • 16:02 - 16:05
    Non so come sia successo
    nella storia dell'azienda,
  • 16:05 - 16:13
    ma l'abbiamo messo prima delle cose
    su cui la gente vuole più informazioni
  • 16:13 - 16:14
    e su cui vuole agire.
  • 16:15 - 16:21
    Il semplice ordine delle due cose
    mostra le nostre priorità di allora.
  • 16:21 - 16:24
    Cambieremo tutto questo.
  • 16:24 - 16:25
    Lo metteremo nell'ordine giusto,
  • 16:25 - 16:29
    ma semplificheremo anche le regole
    in modo che siano comprensibili
  • 16:29 - 16:33
    in modo che la gente possa capire
  • 16:33 - 16:36
    quando qualcosa è contrario
    ai termini di servizio e quando non lo è.
  • 16:36 - 16:38
    E poi facciamo --
  • 16:38 - 16:44
    il nostro focus è sulla rimozione
    del carico di lavoro dalle vittime.
  • 16:44 - 16:47
    Significa spingere più
    verso la tecnologia,
  • 16:47 - 16:49
    invece di far fare il lavoro
  • 16:49 - 16:52
    a chi subisce molestie
  • 16:52 - 16:55
    e a chi deve controllarle.
  • 16:55 - 16:56
    Vogliamo assicurarci
  • 16:56 - 16:59
    non solo di incoraggiare più impegno
  • 16:59 - 17:02
    su una cosa molto indesiderabile,
  • 17:02 - 17:04
    ma vogliamo avere un giusto equilibrio
  • 17:04 - 17:08
    tra la tecnologia
    e la creatività delle persone,
  • 17:08 - 17:11
    ossia nell'interpretazione delle regole,
  • 17:11 - 17:14
    e non solo la parte meccanica
    del trovare e segnalare.
  • 17:14 - 17:15
    Noi la vediamo così.
  • 17:15 - 17:18
    CA: Vorrei approfondire
    quel che hai detto.
  • 17:18 - 17:21
    Mi piace quando dici di voler cercare modi
  • 17:21 - 17:24
    per riprogettare il sistema
  • 17:24 - 17:29
    scoraggiare comportamenti
    reazionari, e forse --
  • 17:29 - 17:32
    usando il linguaggio di Tristan Harris --
  • 17:32 - 17:36
    spingere verso un pensiero più riflessivo.
  • 17:36 - 17:38
    A che punto siamo?
  • 17:38 - 17:42
    Quali alternative potrebbero esserci
    a quel tasto 'like'?
  • 17:44 - 17:47
    JD: Prima di tutto,
  • 17:47 - 17:53
    il mio obiettivo personale con il servizio
    è che credo sostanzialmente
  • 17:53 - 17:56
    che il dialogo pubblico sia fondamentale.
  • 17:56 - 17:58
    Il mondo affronta problemi esistenziali,
  • 17:58 - 18:02
    non sono problemi di singole nazioni,
  • 18:02 - 18:05
    e ne beneficia il dialogo globale.
  • 18:05 - 18:08
    E questa è una delle dinamiche
    uniche di Twitter:
  • 18:08 - 18:09
    è completamente aperta,
  • 18:09 - 18:11
    è completamente pubblica,
  • 18:11 - 18:12
    è completamente fluida,
  • 18:12 - 18:16
    e tutti possono vedere e partecipare
    a qualunque altra conversazione.
  • 18:16 - 18:19
    Ci sono dialoghi
    sul cambiamento climatico.
  • 18:19 - 18:21
    Ci sono dialoghi
    come la distruzione del lavoro
  • 18:21 - 18:23
    ad opera dell'intelligenza artificiale.
  • 18:23 - 18:26
    Ci sono dialoghi come
    la diseguaglianza economica.
  • 18:26 - 18:29
    Qualunque cosa faccia una nazione,
  • 18:29 - 18:32
    non sarà in grado
    di risolvere il problema da sola.
  • 18:32 - 18:37
    Ci vuole coordinamento mondiale,
    ed è qui che entra in gioco Twitter.
  • 18:37 - 18:43
    La seconda cosa è che Twitter,
    oggi, quando entrate,
  • 18:43 - 18:47
    non ne uscite necessariamente
    avendo imparato qualcosa.
  • 18:47 - 18:48
    Alcune persone sì.
  • 18:48 - 18:51
    Alcuni hanno una rete molto ricca,
  • 18:51 - 18:54
    una comunità molto ricca
    da cui imparano ogni giorno.
  • 18:54 - 18:58
    Ma ci vogliono molto impegno
    e tempo per costruirle.
  • 18:58 - 19:02
    Vogliamo che la gente arrivi
    a questi argomenti e interessi
  • 19:02 - 19:03
    molto più rapidamente
  • 19:03 - 19:06
    e assicurarci che trovino qualcosa,
  • 19:07 - 19:09
    indipendentemente da quanto tempo
    passano su Twitter --
  • 19:09 - 19:12
    e non voglio massimizzare
    il tempo su Twitter,
  • 19:12 - 19:14
    voglio massimizzare ciò che si ottiene
  • 19:14 - 19:16
    ciò che si impara, e --
  • 19:18 - 19:19
    CA: Davvero?
  • 19:19 - 19:22
    Perché è la domanda fondamentale
    che si pongono tutti.
  • 19:22 - 19:26
    Jack, sei largamente limitato
  • 19:26 - 19:28
    dal fatto di essere un'azienda quotata,
  • 19:28 - 19:30
    hai investitori che fanno pressione,
  • 19:30 - 19:33
    i soldi si fanno in primo luogo
    con la pubblicità --
  • 19:33 - 19:36
    e questa dipende
    dal coinvolgimento degli utenti.
  • 19:36 - 19:41
    Sei disposto a sacrificare
    il tempo che trascorrono gli utenti,
  • 19:41 - 19:45
    in favore di un dialogo più riflessivo?
  • 19:45 - 19:48
    JD: Sì, maggiore pertinenza
    significa meno tempo sul Twitter.
  • 19:48 - 19:50
    E va benissimo,
  • 19:50 - 19:53
    perché vogliamo assicurarci
    che quando arrivate su Twitter,
  • 19:53 - 19:57
    e vedete qualcosa
    da cui imparare immediatamente,
  • 19:57 - 20:01
    possiamo comunque abbinarvi
    una pubblicità.
  • 20:01 - 20:04
    Non significa che dovete
    passare più tempo e vedere di più.
  • 20:04 - 20:05
    La seconda cosa che cerchiamo --
  • 20:05 - 20:08
    CA: Ma su quell'obiettivo,
    il tempo giornaliero trascorso,
  • 20:08 - 20:11
    anche se lo misurate,
    non significa necessariamente
  • 20:11 - 20:13
    che la gente valorizzi ogni giorno.
  • 20:13 - 20:18
    Potrebbe solo indicare
    da cosa la gente è attirata ogni giorno.
  • 20:18 - 20:21
    Siamo dipendenti, perché vediamo cose
    che ci fanno arrabbiare,
  • 20:21 - 20:24
    quindi entriamo
    e gettiamo benzina su fuoco,
  • 20:24 - 20:26
    e aumenta l'uso giornaliero,
  • 20:26 - 20:28
    e aumentano i ricavi pubblicitari,
  • 20:28 - 20:30
    ma siamo sempre più arrabbiati.
  • 20:30 - 20:33
    Come definire...
  • 20:33 - 20:37
    "Utenti attivi al mese" sembra
    un termine pericoloso da ottimizzare.
  • 20:37 - 20:42
    (Applausi)
  • 20:42 - 20:44
    JD: Da solo lo è,
  • 20:44 - 20:46
    ma non mi hai fatto finire
    l'altro indicatore,
  • 20:46 - 20:50
    ossia osservare le conversazioni
  • 20:50 - 20:52
    e le catene di conversazione.
  • 20:52 - 20:57
    Se vogliamo incentivare
    i contributi sani alla rete,
  • 20:57 - 21:02
    e crediamo che questo significhi
    partecipare a un dialogo "sano",
  • 21:02 - 21:07
    secondo i quattro indicatori
    che ho citato prima,
  • 21:07 - 21:10
    non si può ottimizzare un solo indicatore.
  • 21:10 - 21:13
    Bisogna bilanciare
    e osservare in continuazione
  • 21:13 - 21:17
    ciò che contribuisce
    a creare un dialogo sano della rete
  • 21:17 - 21:19
    e un'esperienza sana per la gente.
  • 21:19 - 21:23
    Infine, vogliamo un indicatore
    per cui la gente possa dire,
  • 21:23 - 21:27
    "Ho imparato qualcosa da Twitter,
    e mi porto via preziose conoscenze."
  • 21:27 - 21:31
    Questo è il nostro obiettivo finale,
    ma ci vorrà del tempo.
  • 21:31 - 21:36
    CA: Per molti, almeno per me,
    sembri un enigma.
  • 21:36 - 21:41
    Probabilmente è ingiusto,
    ma mi sono svegliato la scorsa notte
  • 21:41 - 21:45
    con questa immagine
    di come vedo la situazione,
  • 21:45 - 21:51
    siamo con te in questo grande viaggio
    su questa nave chiamata "Twittanic" --
  • 21:51 - 21:53
    (Risate)
  • 21:53 - 21:57
    Ci sono persone a bordo in terza classe
  • 21:57 - 22:00
    che segnalano un malessere,
  • 22:00 - 22:02
    e tu, contrariamente ad altri capitani,
  • 22:02 - 22:06
    dici, "Ditemi, parlate con me,
    ascoltatemi, voglio ascoltare."
  • 22:06 - 22:09
    Ti parlano, e dicono, " Siamo preoccupati
    per l'iceberg che abbiamo di fronte."
  • 22:09 - 22:11
    E tu, "Lo so, è un punto importante,
  • 22:11 - 22:14
    e la nostra nave, onestamente,
    non è stata progettata
  • 22:14 - 22:16
    per virare così bene."
  • 22:16 - 22:17
    E noi, "Per favore, fai qualcosa."
  • 22:17 - 22:19
    Tu vai sul ponte,
  • 22:19 - 22:22
    e noi aspettiamo, guardiamo,
  • 22:22 - 22:26
    e mostri questa calma straordinaria,
  • 22:26 - 22:29
    ma noi siamo tutti lì a dire,
    "Jack, gira quel fottuto timone!"
  • 22:29 - 22:31
    Capisci che intendo dire?
  • 22:31 - 22:32
    (Risate)
  • 22:32 - 22:34
    (Applausi)
  • 22:34 - 22:36
    Voglio dire --
  • 22:36 - 22:37
    (Applausi)
  • 22:37 - 22:42
    C'è la democrazia, in gioco.
  • 22:42 - 22:45
    La nostra cultura, è in gioco.
    Il mondo, è in gioco.
  • 22:45 - 22:50
    E Twitter è meraviglioso, ci definisce.
  • 22:50 - 22:52
    Non è grande come altre piattaforme,
  • 22:52 - 22:55
    ma le persone influenti lo usano
    per stabilire le priorità,
  • 22:55 - 23:01
    è difficile immaginare
    un ruolo più importante al mondo -
  • 23:01 - 23:05
    Jack, stai facendo un ottimo lavoro
    ascoltando la gente,
  • 23:05 - 23:10
    ma per affrontare l'urgenza
    e andare avanti --
  • 23:10 - 23:12
    lo farai?
  • 23:13 - 23:17
    JD: Sì, abbiamo fatto passi avanti.
  • 23:17 - 23:20
    Sono state tante le dinamiche,
    nella storia di Twitter.
  • 23:20 - 23:22
    Uno, quando sono tornato in azienda,
  • 23:23 - 23:26
    nuotavamo in cattive acque,
  • 23:30 - 23:34
    non solo per come la gente
    usava la piattaforma,
  • 23:34 - 23:36
    ma anche in termini
    di narrativa aziendale.
  • 23:36 - 23:40
    Abbiamo dovuto sistemare le fondamenta,
  • 23:40 - 23:42
    mettere l'azienda sottosopra,
  • 23:42 - 23:45
    passare per due ondate di licenziamenti,
  • 23:45 - 23:49
    perché eravamo troppo grandi
    per quel che facevamo.
  • 23:49 - 23:51
    E le nostre energie andavano
  • 23:51 - 23:54
    su questo concetto di aiutare il dialogo.
  • 23:54 - 23:56
    È stato un enorme lavoro.
  • 23:56 - 23:58
    Ci siamo buttati,
  • 23:58 - 24:01
    abbiamo identificato
    alcuni problemi alla base.
  • 24:02 - 24:07
    Abbiamo fatto un po' di cose superficiali
    per sistemare ciò di cui parli,
  • 24:07 - 24:09
    ma i cambiamenti dovevano essere duraturi,
  • 24:09 - 24:11
    e questo significa approfondire
  • 24:11 - 24:15
    e prestare attenzione
    a quel che abbiamo creato 13 anni fa
  • 24:15 - 24:18
    e mettere in discussione
  • 24:18 - 24:20
    il funzionamento del sistema
  • 24:20 - 24:24
    e quello che serve al mondo oggi,
  • 24:24 - 24:26
    considerando come tutto
    cambia velocemente
  • 24:26 - 24:28
    e come la gente lo usa.
  • 24:28 - 24:35
    Lavoriamo più velocemente possibile,
    ma la velocità non è sufficiente.
  • 24:35 - 24:37
    Ci vuole concentrazione, priorità,
  • 24:37 - 24:40
    capire le basi della rete
  • 24:40 - 24:43
    e costruire una struttura modulare
  • 24:43 - 24:46
    che si adatta ai cambiamenti,
  • 24:46 - 24:51
    essere aperti e trasparenti su dove siamo
  • 24:51 - 24:53
    per continuare a essere degni di fiducia.
  • 24:54 - 24:57
    Sono fiero della struttura
    che abbiamo messo in piedi.
  • 24:57 - 25:00
    Sono fiero della direzione.
  • 25:01 - 25:04
    Ovviamente potremmo essere più veloci,
  • 25:04 - 25:06
    ma questo significa smettere di fare
  • 25:06 - 25:08
    una serie di cose stupide
    che facevamo in passato.
  • 25:09 - 25:10
    CA: Bene.
  • 25:10 - 25:14
    Credo che molti qui,
    avendone la possibilità,
  • 25:14 - 25:18
    vorrebbero aiutare il cambiamento,
  • 25:18 - 25:20
    e non so se Whitney --
  • 25:20 - 25:23
    Jack, grazie per essere venuto
    a parlare apertamente.
  • 25:23 - 25:24
    Ci è voluto coraggio.
  • 25:24 - 25:28
    Apprezzo davvero quello che hai detto,
    e buona fortuna nella tua missione.
  • 25:28 - 25:30
    JD: Grazie infinite.
    Grazie per avermi invitato.
  • 25:30 - 25:33
    (Applausi)
  • 25:33 - 25:34
    Grazie.
Title:
Come Twitter deve cambiare
Speaker:
Jack Dorsey
Description:

È possibile salvare Twitter? In una conversazione ad ampio raggio con Chris Anderson di TED e Whitney Pennington Rodgers, il CEO di Twitter Jack Dorsey parla del futuro della piattaforma, prende atto dei problemi con gli abusi in rete e la moderazione e propone cambiamenti significativi che spera possano incoraggiare un dialogo sano e rispettoso. La sua grande domanda è: "Stiamo dando qualcosa a cui la gente, giorno dopo giorno, dà valore?"

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
25:47
Michele Gianella approved Italian subtitles for How Twitter needs to change
Michele Gianella accepted Italian subtitles for How Twitter needs to change
Michele Gianella edited Italian subtitles for How Twitter needs to change
Michele Gianella edited Italian subtitles for How Twitter needs to change
Michele Gianella edited Italian subtitles for How Twitter needs to change
Michele Gianella edited Italian subtitles for How Twitter needs to change
Michele Gianella edited Italian subtitles for How Twitter needs to change
Anna Cristiana Minoli edited Italian subtitles for How Twitter needs to change

Italian subtitles

Revisions