Come Twitter deve cambiare
-
0:01 - 0:04Chris Anderson: Che cosa ti preoccupa ora?
-
0:04 - 0:06Sei stato molto aperto
su molti problemi di Twitter. -
0:06 - 0:09Qual è la tua principale preoccupazione
-
0:09 - 0:11sullo stato delle cose oggi?
-
0:11 - 0:14Jack Dorsey: Oggi,
lo stato di salute del dialogo. -
0:14 - 0:18Il nostro obiettivo è servire
il dialogo pubblico, -
0:18 - 0:23che è stato attaccato più volte.
-
0:23 - 0:26Ha subito abusi, molestie,
-
0:26 - 0:29manipolazioni,
-
0:29 - 0:33automazioni, disinformazione,
coordinamento umano. -
0:34 - 0:38Sono tutte dinamiche
che non ci aspettavamo -
0:38 - 0:42quando abbiamo fondato
l'azienda, 13 anni fa. -
0:42 - 0:45Oggi ci sono su larga scala, invece,
-
0:45 - 0:50e quello che mi preoccupa di più
è la nostra capacità di gestirli -
0:50 - 0:53in modo sistematico e scalabile,
-
0:53 - 1:00con una comprensione rigorosa
di come stiamo intervenendo, -
1:00 - 1:03una comprensione trasparente
di come stiamo intervenendo -
1:03 - 1:06e un processo di scrutinio rigoroso
per quando faremo sbagli. -
1:06 - 1:08Perché ne faremo, prima o poi.
-
1:08 - 1:11Whitney Pennington Rodgers:
sono felice di sentire -
1:11 - 1:13che è una cosa che ti preoccupa,
-
1:13 - 1:16perché credo sia stato
scritto molto di gente -
1:16 - 1:18che si è sentita aggredita
e molestata su Twitter, -
1:18 - 1:22e credo nessuno più delle donne
e delle donne di colore -
1:22 - 1:23e donne nere.
-
1:23 - 1:25Sono usciti dei dati --
-
1:25 - 1:28Amnesty International ha pubblicato
un rapporto qualche mese fa -
1:28 - 1:33che mostrava come una serie
di donne di colore attive su Twitter, -
1:33 - 1:36subisca in media,
in risposta a un tweet su dieci, -
1:36 - 1:38una qualche forma di aggressione.
-
1:38 - 1:42Quando pensi allo stato di salute
della comunità su Twitter, -
1:42 - 1:46sono felice di sentire
"salute per tutti". -
1:46 - 1:49Ma nello specifico, come renderai
Twitter un luogo più sicuro -
1:49 - 1:54per quelle donne di colore e donne nere?
-
1:54 - 1:55JD: Sì.
-
1:55 - 1:57È una situazione piuttosto terribile
-
1:57 - 1:59quando aderisci a un servizio
-
1:59 - 2:03da cui, idealmente,
vuoi imparare qualcosa del mondo, -
2:03 - 2:09e passi più tempo
a segnalare e ricevere molestie, -
2:09 - 2:11subire violenza.
-
2:14 - 2:18Quello che cerchiamo
di approfondire sono gli incentivi -
2:18 - 2:22che la piattaforma e il servizio
forniscono naturalmente. -
2:22 - 2:25Con la dinamica attuale del sistema,
-
2:25 - 2:31è facilissimo molestare e insultare altri
attraverso il servizio. -
2:31 - 2:34E purtroppo, in passato
gran parte del sistema -
2:34 - 2:39era interamente basato
sulla segnalazione di molestie e insulti. -
2:39 - 2:45A metà dell'anno scorso,
abbiamo deciso che avremmo applicato -
2:45 - 2:49molto più apprendimento automatico,
nel trattare la questione, -
2:49 - 2:53e avremmo cercato di essere
molto più proattivi sulle molestie, -
2:53 - 2:57in modo da farci carico completamente
del problema della vittima. -
2:57 - 3:00Abbiamo fatto progressi recentemente.
-
3:00 - 3:06Il 38 percento circa dei tweet molesti
è ora correttamente identificato -
3:06 - 3:08da algoritmi di apprendimento automatico,
-
3:08 - 3:10così la gente non deve nemmeno segnalarli.
-
3:10 - 3:14Ma quelli che vengono identificati
vengono comunque controllati da persone, -
3:14 - 3:19in modo da non rimuovere contenuti
o account senza prima controllare. -
3:19 - 3:22Siamo partiti da zero solo un anno fa.
-
3:22 - 3:24"Da zero" significa
-
3:24 - 3:28che ogni singolo utente molestato
doveva segnalarlo, -
3:28 - 3:31il che significa impegno degli utenti,
e molto lavoro per noi, -
3:31 - 3:33il che è ingiusto.
-
3:35 - 3:38L'altra cosa che facciamo
è assicurarci che in quanto azienda, -
3:38 - 3:41siamo rappresentati da tutte le comunità
che cerchiamo di servire. -
3:41 - 3:44Non possiamo costruire
un'azienda di successo -
3:44 - 3:47senza una diversità di prospettive
nel nostro ufficio, -
3:47 - 3:51che vive questi problemi quotidianamente.
-
3:51 - 3:55E non solo nel team che fa il lavoro,
-
3:55 - 3:57ma anche tra i leader.
-
3:57 - 4:03Dobbiamo continuare a creare empatia
in quello che la gente vive -
4:03 - 4:06e darle più strumenti per agire
-
4:06 - 4:10e dare anche ai nostri clienti
un approccio migliore e più facile -
4:10 - 4:13per gestire alcune cose che vedono.
-
4:13 - 4:16Molto di quello che facciamo
è tecnologico, -
4:16 - 4:20ma analizziamo anche
gli incentivi del servizio: -
4:20 - 4:25cosa ti spinge a fare, Twitter,
la prima volta che lo apri? -
4:25 - 4:27In passato,
-
4:29 - 4:34ha alimentato offese,
ha alimentato movimenti di massa, -
4:34 - 4:37ha alimentato molestie di gruppo.
-
4:37 - 4:40E dobbiamo approfondire molto le basi
-
4:40 - 4:43di come il servizio agisce
per i grandi cambiamenti. -
4:43 - 4:47Possiamo fare tanti piccoli
cambiamenti tecnologici, come ho detto; -
4:47 - 4:52ma in definitiva dobbiamo approfondire
le dinamiche della rete stessa, -
4:52 - 4:53ed è quello che stiamo facendo.
-
4:53 - 4:55CA: Ma qual è il senso --
-
4:55 - 4:59che tipo di cose potreste cambiare
-
4:59 - 5:02che potrebbe modificare il comportamento?
-
5:03 - 5:05JD: Una delle cose --
-
5:05 - 5:10abbiamo iniziato il servizio
con il concetto di seguire un account, -
5:10 - 5:12ad esempio,
-
5:12 - 5:16e non credo sia questo il motivo
per cui la gente arriva su Twitter. -
5:16 - 5:21Credo che Twitter funzioni meglio
come rete basata sugli interessi. -
5:21 - 5:25La gente arriva
con un particolare interesse. -
5:25 - 5:28Deve impegnarsi molto per trovare
e seguire gli account giusti -
5:28 - 5:30che ruotano attorno a quegli interessi.
-
5:30 - 5:34Potremmo invece consentire
di seguire un argomento, -
5:34 - 5:36seguire un hashtag, seguire un trend,
-
5:36 - 5:38seguire una comunità,
-
5:38 - 5:42il che ci dà l'opportunità
di mostrare tutti gli account, -
5:42 - 5:46tutti gli argomenti, momenti, hashtag
-
5:46 - 5:50associati a quell'interesse,
o a quell'argomento, -
5:50 - 5:54il che allarga le prospettive.
-
5:54 - 5:56Ma è un cambiamento importante
-
5:56 - 6:00spostare l'intera rete
dal principio di un solo account -
6:00 - 6:03al principio di argomento o interesse.
-
6:03 - 6:06CA: Perché non è vero
-
6:07 - 6:11che un motivo per cui
avete tanto contenuto -
6:11 - 6:15è frutto del mettere insieme
milioni di persone nel mondo -
6:15 - 6:18l'uno contro l'altro
in questa specie di arena di gladiatori -
6:18 - 6:20per i follower, per l'attenzione?
-
6:20 - 6:24Dal punto di vista di utenti
che leggono solo Twitter, -
6:24 - 6:25non è un problema,
-
6:25 - 6:29ma per chi lo crea, sono tutti lì a dire,
-
6:29 - 6:32"Sai, vorrei tanto avere
più 'like', 'follower', 'retweet'." -
6:32 - 6:34Quindi continuano a sperimentare,
-
6:34 - 6:36in cerca della strada giusta.
-
6:36 - 6:40Abbiamo scoperto che il modo migliore
-
6:40 - 6:47è essere provocatori, insopportabili,
eloquentemente molesti, -
6:47 - 6:50gli insulti eloquenti
sono un sogno su Twitter, -
6:50 - 6:53si accumula rapidamente --
-
6:53 - 6:57diventa un processo di rabbia
che si auto-alimenta. -
6:57 - 7:00Come si può disinnescare?
-
7:01 - 7:04JD: Hai colto il punto,
-
7:04 - 7:05ma questo ci riporta agli incentivi.
-
7:05 - 7:08Una delle scelte
che abbiamo fatto agli inizi -
7:08 - 7:13è stata mostrare il numero di follower.
-
7:13 - 7:16Abbiamo deciso che quel numero
doveva essere bello grande, -
7:16 - 7:20e tutto ciò che è bello grande
sulla pagina è importante, -
7:20 - 7:22e quelle sono le cose da spingere.
-
7:22 - 7:24È stata la decisione giusta all'epoca?
-
7:24 - 7:25Probabilmente no.
-
7:25 - 7:28Se dovessi ricominciare,
non enfatizzerei così tanto i follower. -
7:29 - 7:32Non enfatizzerei tanto
il conteggio dei 'like'. -
7:32 - 7:35Non credo nemmeno che creerei i 'like',
-
7:35 - 7:38perché in realtà non spinge
-
7:38 - 7:41quello che ora crediamo
sia la cosa più importante, -
7:41 - 7:44ossia un valido contributo alla rete
-
7:44 - 7:47e al dialogo in rete,
-
7:47 - 7:49la partecipazione alla conversazione,
-
7:49 - 7:52imparare qualcosa dalla conversazione.
-
7:52 - 7:54Non sono cose a cui,
13 anni fa, avevamo pensato -
7:54 - 7:57e crediamo siano molto importanti ora.
-
7:57 - 8:00Dobbiamo analizzare
come mostriamo i follower, -
8:00 - 8:02come mostriamo il conteggio dei retweet,
-
8:02 - 8:04come mostriamo i 'like',
-
8:04 - 8:06e porci la domanda importante:
-
8:06 - 8:09è questo il vero numero
che vogliamo far aumentare? -
8:09 - 8:12Aprendo Twitter,
è questo il punto centrale: -
8:12 - 8:14"Che cosa devo far aumentare?"
-
8:14 - 8:16Non credo sia così, ora.
-
8:16 - 8:19(Applausi)
-
8:19 - 8:21WPR: Credo che dovremmo
analizzare alcuni tweet -
8:21 - 8:23che arrivano dal pubblico.
-
8:24 - 8:26CA: Vediamo cosa state chiedendo.
-
8:26 - 8:30Una delle cose straordinarie di Twitter
-
8:30 - 8:32è come si può usare
il contributo del pubblico, -
8:32 - 8:37più conoscenza, più domande,
più punti di vista -
8:37 - 8:38di quanto si possa immaginare.
-
8:38 - 8:42E alcuni, talvolta, sono molto validi.
-
8:42 - 8:45WPR: Uno che ho visto passare velocemente,
-
8:45 - 8:49"Qual è il piano di Twitter per combattere
l'ingerenza straniera alle elezioni 2020?" -
8:49 - 8:51Credo sia un problema
-
8:51 - 8:53per Internet in generale,
-
8:53 - 8:56le attività ostili automatizzate.
-
8:56 - 9:02Su Twitter, per esempio, lavoriamo
-
9:02 - 9:05con i nostri amici di Zignal Labs,
-
9:05 - 9:09magari possiamo anche vedere
un esempio di quel che dico. -
9:09 - 9:13Ci sono questi bot, se volete,
-
9:13 - 9:17o attività ostile
automatizzata e coordinata -
9:17 - 9:20di account che vengono utilizzati
per influenzare cose come le elezioni. -
9:20 - 9:24In questo esempio che Zignal ha condiviso,
-
9:24 - 9:26utilizzando i dati di Twitter,
-
9:26 - 9:28vedete che in questo caso,
-
9:28 - 9:33il bianco rappresenta account di persone,
ogni punto è un account. -
9:33 - 9:36Più è rosa, più l'attività
è automatizzata. -
9:36 - 9:42Vedete che alcune persone
interagiscono con i bot. -
9:42 - 9:46In questo caso, è legato
alle elezioni in Israele -
9:46 - 9:49e la disinformazione diffusa
su Benny Gantz, -
9:49 - 9:52e sappiamo che alle elezioni
-
9:52 - 9:56Netanyahu ha vinto con pochissimo margine,
-
9:56 - 9:59e potrebbe esserne stato influenzato.
-
9:59 - 10:01Se pensate a quello
che succede su Twitter, -
10:01 - 10:04cosa fate, nello specifico,
-
10:04 - 10:07per assicurarvi che non si diffonda
disinformazione come questa, -
10:07 - 10:12che influenza la gente
compromettendo la democrazia? -
10:12 - 10:13JD: Torniamo indietro un attimo,
-
10:13 - 10:16ci siamo fatti una domanda:
-
10:16 - 10:20possiamo misurare lo stato di salute
della conversazione politica, -
10:20 - 10:22e cosa ne ricaviamo?
-
10:22 - 10:25Così come voi avete indicatori
-
10:25 - 10:28e noi umani abbiamo indicatori
dello stato di salute, -
10:28 - 10:33come la temperatura, il rossore del viso,
-
10:33 - 10:38crediamo di poter trovare degli indicatori
dello stato di salute della conversazione. -
10:38 - 10:42Abbiamo lavorato con un laboratorio
di nome Cortico all'MIT -
10:42 - 10:49per proporre quattro indicatori
-
10:49 - 10:52che crediamo possano misurare il sistema.
-
10:53 - 10:59Il primo è quello che chiamiamo
attenzione condivisa. -
10:59 - 11:02È un indicatore di quanto
è concentrata la conversazione -
11:02 - 11:05sullo stesso argomento,
piuttosto che dispersa. -
11:06 - 11:09Il secondo si chiama realtà condivisa,
-
11:09 - 11:11ed è la percentuale di conversazione
-
11:11 - 11:14che condivide gli stessi fatti --
-
11:14 - 11:17non se quei fatti sono veri o no,
-
11:17 - 11:20ma se condividiamo gli stessi fatti
mentre dialoghiamo. -
11:20 - 11:23Il terzo è la ricettività:
-
11:23 - 11:27quanto della conversazione
è aperta e civile -
11:27 - 11:30o viceversa, tossica?
-
11:30 - 11:33Il quarto è la diversità di prospettive.
-
11:33 - 11:37Siamo in bolle informative
o in echo-chamber, -
11:37 - 11:40o siamo davvero esposti
a una varietà di opinioni, -
11:40 - 11:41nelle conversazioni?
-
11:41 - 11:45Implicito in tutti e quattro è l'idea
-
11:45 - 11:49che più aumentano,
più la conversazione è sana. -
11:49 - 11:54Il primo passo è vedere
se possiamo misurarle online, -
11:54 - 11:55e crediamo di poterlo fare.
-
11:55 - 11:58Abbiamo più slancio nella ricettività.
-
11:58 - 12:03Abbiamo una scala o un modello
di tossicità, nel nostro sistema -
12:03 - 12:09che può misurare se stai per andartene
dalla conversazione su Twitter -
12:09 - 12:11perché hai la sensazione che sia tossica,
-
12:11 - 12:13e ha ottime capacità di previsione.
-
12:14 - 12:17Stiamo lavorando
alla misurazione del resto. -
12:17 - 12:22E il prossimo passo,
mentre cerchiamo nuove soluzioni, -
12:22 - 12:25è osservare come variano
queste misure nel tempo -
12:25 - 12:27e continuare a sperimentare.
-
12:27 - 12:31Il nostro obiettivo è assicurarci
che siano equilibrate, -
12:31 - 12:35perché se ne aumenti una,
potresti ridurre l'altra. -
12:35 - 12:37Se aumenta la diversità di prospettiva,
-
12:37 - 12:40potrebbe ridursi la realtà condivisa.
-
12:40 - 12:45CA: Prendiamo qualcuna
delle domande che stanno arrivando. -
12:45 - 12:46JD: Un continuo di domande.
-
12:47 - 12:52CA: Molti si chiedono
perché mai sia così difficile -
12:52 - 12:55liberare Twitter dai nazisti.
-
12:56 - 12:58JD: (Risate)
-
12:58 - 13:05Abbiamo regole per gruppi
violenti ed estremisti, -
13:05 - 13:09e gran parte del nostro lavoro
e i termini del servizio -
13:09 - 13:13funzionano sul comportamento,
non sul contenuto. -
13:13 - 13:15Sono i comportamenti, che cerchiamo.
-
13:15 - 13:18"Comportamento" significa
usare questo servizio -
13:18 - 13:22per molestare qualcuno
ripetutamente o episodicamente, -
13:22 - 13:25usare immagini cariche di odio
-
13:25 - 13:27che potrebbero essere associate al KKK
-
13:27 - 13:30o al Partito Nazista Americano.
-
13:30 - 13:34Sono tutte cose su cui
interveniamo immediatamente. -
13:35 - 13:40Siamo in una situazione in cui
il termine viene usato liberamente, -
13:40 - 13:46e non possiamo intervenire
ad ogni uso della parola -
13:46 - 13:48accusando qualcuno
-
13:48 - 13:52come elemento per rimuoverlo
dalla piattaforma. -
13:52 - 13:54Molti dei nostri modelli sono basati su:
-
13:54 - 13:58Uno, questo account è associato
a un gruppo estremista violento? -
13:58 - 14:00Se così fosse, possiamo intervenire.
-
14:00 - 14:03Lo abbiamo fatto sul KKK,
sul Partito Nazista Americano e altri. -
14:03 - 14:08Due: usano immagini o comportamenti
-
14:08 - 14:10che li associano a questi gruppi?
-
14:10 - 14:15CA: Quante persone lavorano
alla moderazione dei contenuti? -
14:15 - 14:16JD: Dipende.
-
14:16 - 14:18Vogliamo essere flessibili,
-
14:18 - 14:20perché vogliamo essere certi
di costruire algoritmi -
14:20 - 14:25invece di assumere persone
in modo indiscriminato, -
14:25 - 14:28perché dobbiamo assicurarci
che sia scalabile, -
14:28 - 14:31e non c'è quantità di persone
che lo possa fare su larga scala. -
14:31 - 14:38Ecco perché abbiamo lavorato tanto
sulla rilevazione proattiva degli abusi -
14:38 - 14:40che le persone possono poi controllare.
-
14:40 - 14:42Vogliamo una situazione
-
14:42 - 14:46in cui gli algoritmi setacciano
in continuazione ogni singolo tweet -
14:46 - 14:48portando alla luce i più interessanti
-
14:48 - 14:52in modo che le persone possano valutare
se prendere provvedimenti o no, -
14:52 - 14:54secondo i termini del servizio.
-
14:54 - 14:57WPR: Nessuna quantità di persone
funziona su larga scala, -
14:57 - 15:00ma quante persone avete oggi
sul controllo degli account, -
15:00 - 15:03e come capite quando sono abbastanza?
-
15:03 - 15:05JD: Sono assolutamente flessibili.
-
15:05 - 15:08Qualche volta associamo
la gente allo spam. -
15:08 - 15:12Qualche volta l'associamo
all'abuso e alla molestia. -
15:12 - 15:15Ci assicureremo di avere
flessibilità nelle persone -
15:15 - 15:17in modo da indirizzarle
dove sono necessarie. -
15:17 - 15:19Talvolta le elezioni.
-
15:19 - 15:23Ci sono state le elezioni in Messico,
tra poco ci saranno in India, -
15:23 - 15:28ovviamente le elezioni l'anno scorso,
quelle di metà mandato; -
15:28 - 15:30vogliamo essere flessibili
con le risorse. -
15:30 - 15:33Quando la gente --
-
15:33 - 15:39ad esempio, se controllate
i termini del servizio -
15:39 - 15:41e guardate sulla pagina in alto,
-
15:41 - 15:44e per abusi e molestie che avete ricevuto
-
15:44 - 15:48vi chiedete se sono contrari
ai termini del servizio per segnalarli, -
15:48 - 15:51la prima cosa che vedete
aprendo quella pagina -
15:51 - 15:54è la protezione
della proprietà intellettuale. -
15:55 - 16:00Scendete e arrivate ad abusi e molestie
-
16:00 - 16:02e qualunque cosa viviate.
-
16:02 - 16:05Non so come sia successo
nella storia dell'azienda, -
16:05 - 16:13ma l'abbiamo messo prima delle cose
su cui la gente vuole più informazioni -
16:13 - 16:14e su cui vuole agire.
-
16:15 - 16:21Il semplice ordine delle due cose
mostra le nostre priorità di allora. -
16:21 - 16:24Cambieremo tutto questo.
-
16:24 - 16:25Lo metteremo nell'ordine giusto,
-
16:25 - 16:29ma semplificheremo anche le regole
in modo che siano comprensibili -
16:29 - 16:33in modo che la gente possa capire
-
16:33 - 16:36quando qualcosa è contrario
ai termini di servizio e quando non lo è. -
16:36 - 16:38E poi facciamo --
-
16:38 - 16:44il nostro focus è sulla rimozione
del carico di lavoro dalle vittime. -
16:44 - 16:47Significa spingere più
verso la tecnologia, -
16:47 - 16:49invece di far fare il lavoro
-
16:49 - 16:52a chi subisce molestie
-
16:52 - 16:55e a chi deve controllarle.
-
16:55 - 16:56Vogliamo assicurarci
-
16:56 - 16:59non solo di incoraggiare più impegno
-
16:59 - 17:02su una cosa molto indesiderabile,
-
17:02 - 17:04ma vogliamo avere un giusto equilibrio
-
17:04 - 17:08tra la tecnologia
e la creatività delle persone, -
17:08 - 17:11ossia nell'interpretazione delle regole,
-
17:11 - 17:14e non solo la parte meccanica
del trovare e segnalare. -
17:14 - 17:15Noi la vediamo così.
-
17:15 - 17:18CA: Vorrei approfondire
quel che hai detto. -
17:18 - 17:21Mi piace quando dici di voler cercare modi
-
17:21 - 17:24per riprogettare il sistema
-
17:24 - 17:29scoraggiare comportamenti
reazionari, e forse -- -
17:29 - 17:32usando il linguaggio di Tristan Harris --
-
17:32 - 17:36spingere verso un pensiero più riflessivo.
-
17:36 - 17:38A che punto siamo?
-
17:38 - 17:42Quali alternative potrebbero esserci
a quel tasto 'like'? -
17:44 - 17:47JD: Prima di tutto,
-
17:47 - 17:53il mio obiettivo personale con il servizio
è che credo sostanzialmente -
17:53 - 17:56che il dialogo pubblico sia fondamentale.
-
17:56 - 17:58Il mondo affronta problemi esistenziali,
-
17:58 - 18:02non sono problemi di singole nazioni,
-
18:02 - 18:05e ne beneficia il dialogo globale.
-
18:05 - 18:08E questa è una delle dinamiche
uniche di Twitter: -
18:08 - 18:09è completamente aperta,
-
18:09 - 18:11è completamente pubblica,
-
18:11 - 18:12è completamente fluida,
-
18:12 - 18:16e tutti possono vedere e partecipare
a qualunque altra conversazione. -
18:16 - 18:19Ci sono dialoghi
sul cambiamento climatico. -
18:19 - 18:21Ci sono dialoghi
come la distruzione del lavoro -
18:21 - 18:23ad opera dell'intelligenza artificiale.
-
18:23 - 18:26Ci sono dialoghi come
la diseguaglianza economica. -
18:26 - 18:29Qualunque cosa faccia una nazione,
-
18:29 - 18:32non sarà in grado
di risolvere il problema da sola. -
18:32 - 18:37Ci vuole coordinamento mondiale,
ed è qui che entra in gioco Twitter. -
18:37 - 18:43La seconda cosa è che Twitter,
oggi, quando entrate, -
18:43 - 18:47non ne uscite necessariamente
avendo imparato qualcosa. -
18:47 - 18:48Alcune persone sì.
-
18:48 - 18:51Alcuni hanno una rete molto ricca,
-
18:51 - 18:54una comunità molto ricca
da cui imparano ogni giorno. -
18:54 - 18:58Ma ci vogliono molto impegno
e tempo per costruirle. -
18:58 - 19:02Vogliamo che la gente arrivi
a questi argomenti e interessi -
19:02 - 19:03molto più rapidamente
-
19:03 - 19:06e assicurarci che trovino qualcosa,
-
19:07 - 19:09indipendentemente da quanto tempo
passano su Twitter -- -
19:09 - 19:12e non voglio massimizzare
il tempo su Twitter, -
19:12 - 19:14voglio massimizzare ciò che si ottiene
-
19:14 - 19:16ciò che si impara, e --
-
19:18 - 19:19CA: Davvero?
-
19:19 - 19:22Perché è la domanda fondamentale
che si pongono tutti. -
19:22 - 19:26Jack, sei largamente limitato
-
19:26 - 19:28dal fatto di essere un'azienda quotata,
-
19:28 - 19:30hai investitori che fanno pressione,
-
19:30 - 19:33i soldi si fanno in primo luogo
con la pubblicità -- -
19:33 - 19:36e questa dipende
dal coinvolgimento degli utenti. -
19:36 - 19:41Sei disposto a sacrificare
il tempo che trascorrono gli utenti, -
19:41 - 19:45in favore di un dialogo più riflessivo?
-
19:45 - 19:48JD: Sì, maggiore pertinenza
significa meno tempo sul Twitter. -
19:48 - 19:50E va benissimo,
-
19:50 - 19:53perché vogliamo assicurarci
che quando arrivate su Twitter, -
19:53 - 19:57e vedete qualcosa
da cui imparare immediatamente, -
19:57 - 20:01possiamo comunque abbinarvi
una pubblicità. -
20:01 - 20:04Non significa che dovete
passare più tempo e vedere di più. -
20:04 - 20:05La seconda cosa che cerchiamo --
-
20:05 - 20:08CA: Ma su quell'obiettivo,
il tempo giornaliero trascorso, -
20:08 - 20:11anche se lo misurate,
non significa necessariamente -
20:11 - 20:13che la gente valorizzi ogni giorno.
-
20:13 - 20:18Potrebbe solo indicare
da cosa la gente è attirata ogni giorno. -
20:18 - 20:21Siamo dipendenti, perché vediamo cose
che ci fanno arrabbiare, -
20:21 - 20:24quindi entriamo
e gettiamo benzina su fuoco, -
20:24 - 20:26e aumenta l'uso giornaliero,
-
20:26 - 20:28e aumentano i ricavi pubblicitari,
-
20:28 - 20:30ma siamo sempre più arrabbiati.
-
20:30 - 20:33Come definire...
-
20:33 - 20:37"Utenti attivi al mese" sembra
un termine pericoloso da ottimizzare. -
20:37 - 20:42(Applausi)
-
20:42 - 20:44JD: Da solo lo è,
-
20:44 - 20:46ma non mi hai fatto finire
l'altro indicatore, -
20:46 - 20:50ossia osservare le conversazioni
-
20:50 - 20:52e le catene di conversazione.
-
20:52 - 20:57Se vogliamo incentivare
i contributi sani alla rete, -
20:57 - 21:02e crediamo che questo significhi
partecipare a un dialogo "sano", -
21:02 - 21:07secondo i quattro indicatori
che ho citato prima, -
21:07 - 21:10non si può ottimizzare un solo indicatore.
-
21:10 - 21:13Bisogna bilanciare
e osservare in continuazione -
21:13 - 21:17ciò che contribuisce
a creare un dialogo sano della rete -
21:17 - 21:19e un'esperienza sana per la gente.
-
21:19 - 21:23Infine, vogliamo un indicatore
per cui la gente possa dire, -
21:23 - 21:27"Ho imparato qualcosa da Twitter,
e mi porto via preziose conoscenze." -
21:27 - 21:31Questo è il nostro obiettivo finale,
ma ci vorrà del tempo. -
21:31 - 21:36CA: Per molti, almeno per me,
sembri un enigma. -
21:36 - 21:41Probabilmente è ingiusto,
ma mi sono svegliato la scorsa notte -
21:41 - 21:45con questa immagine
di come vedo la situazione, -
21:45 - 21:51siamo con te in questo grande viaggio
su questa nave chiamata "Twittanic" -- -
21:51 - 21:53(Risate)
-
21:53 - 21:57Ci sono persone a bordo in terza classe
-
21:57 - 22:00che segnalano un malessere,
-
22:00 - 22:02e tu, contrariamente ad altri capitani,
-
22:02 - 22:06dici, "Ditemi, parlate con me,
ascoltatemi, voglio ascoltare." -
22:06 - 22:09Ti parlano, e dicono, " Siamo preoccupati
per l'iceberg che abbiamo di fronte." -
22:09 - 22:11E tu, "Lo so, è un punto importante,
-
22:11 - 22:14e la nostra nave, onestamente,
non è stata progettata -
22:14 - 22:16per virare così bene."
-
22:16 - 22:17E noi, "Per favore, fai qualcosa."
-
22:17 - 22:19Tu vai sul ponte,
-
22:19 - 22:22e noi aspettiamo, guardiamo,
-
22:22 - 22:26e mostri questa calma straordinaria,
-
22:26 - 22:29ma noi siamo tutti lì a dire,
"Jack, gira quel fottuto timone!" -
22:29 - 22:31Capisci che intendo dire?
-
22:31 - 22:32(Risate)
-
22:32 - 22:34(Applausi)
-
22:34 - 22:36Voglio dire --
-
22:36 - 22:37(Applausi)
-
22:37 - 22:42C'è la democrazia, in gioco.
-
22:42 - 22:45La nostra cultura, è in gioco.
Il mondo, è in gioco. -
22:45 - 22:50E Twitter è meraviglioso, ci definisce.
-
22:50 - 22:52Non è grande come altre piattaforme,
-
22:52 - 22:55ma le persone influenti lo usano
per stabilire le priorità, -
22:55 - 23:01è difficile immaginare
un ruolo più importante al mondo - -
23:01 - 23:05Jack, stai facendo un ottimo lavoro
ascoltando la gente, -
23:05 - 23:10ma per affrontare l'urgenza
e andare avanti -- -
23:10 - 23:12lo farai?
-
23:13 - 23:17JD: Sì, abbiamo fatto passi avanti.
-
23:17 - 23:20Sono state tante le dinamiche,
nella storia di Twitter. -
23:20 - 23:22Uno, quando sono tornato in azienda,
-
23:23 - 23:26nuotavamo in cattive acque,
-
23:30 - 23:34non solo per come la gente
usava la piattaforma, -
23:34 - 23:36ma anche in termini
di narrativa aziendale. -
23:36 - 23:40Abbiamo dovuto sistemare le fondamenta,
-
23:40 - 23:42mettere l'azienda sottosopra,
-
23:42 - 23:45passare per due ondate di licenziamenti,
-
23:45 - 23:49perché eravamo troppo grandi
per quel che facevamo. -
23:49 - 23:51E le nostre energie andavano
-
23:51 - 23:54su questo concetto di aiutare il dialogo.
-
23:54 - 23:56È stato un enorme lavoro.
-
23:56 - 23:58Ci siamo buttati,
-
23:58 - 24:01abbiamo identificato
alcuni problemi alla base. -
24:02 - 24:07Abbiamo fatto un po' di cose superficiali
per sistemare ciò di cui parli, -
24:07 - 24:09ma i cambiamenti dovevano essere duraturi,
-
24:09 - 24:11e questo significa approfondire
-
24:11 - 24:15e prestare attenzione
a quel che abbiamo creato 13 anni fa -
24:15 - 24:18e mettere in discussione
-
24:18 - 24:20il funzionamento del sistema
-
24:20 - 24:24e quello che serve al mondo oggi,
-
24:24 - 24:26considerando come tutto
cambia velocemente -
24:26 - 24:28e come la gente lo usa.
-
24:28 - 24:35Lavoriamo più velocemente possibile,
ma la velocità non è sufficiente. -
24:35 - 24:37Ci vuole concentrazione, priorità,
-
24:37 - 24:40capire le basi della rete
-
24:40 - 24:43e costruire una struttura modulare
-
24:43 - 24:46che si adatta ai cambiamenti,
-
24:46 - 24:51essere aperti e trasparenti su dove siamo
-
24:51 - 24:53per continuare a essere degni di fiducia.
-
24:54 - 24:57Sono fiero della struttura
che abbiamo messo in piedi. -
24:57 - 25:00Sono fiero della direzione.
-
25:01 - 25:04Ovviamente potremmo essere più veloci,
-
25:04 - 25:06ma questo significa smettere di fare
-
25:06 - 25:08una serie di cose stupide
che facevamo in passato. -
25:09 - 25:10CA: Bene.
-
25:10 - 25:14Credo che molti qui,
avendone la possibilità, -
25:14 - 25:18vorrebbero aiutare il cambiamento,
-
25:18 - 25:20e non so se Whitney --
-
25:20 - 25:23Jack, grazie per essere venuto
a parlare apertamente. -
25:23 - 25:24Ci è voluto coraggio.
-
25:24 - 25:28Apprezzo davvero quello che hai detto,
e buona fortuna nella tua missione. -
25:28 - 25:30JD: Grazie infinite.
Grazie per avermi invitato. -
25:30 - 25:33(Applausi)
-
25:33 - 25:34Grazie.
- Title:
- Come Twitter deve cambiare
- Speaker:
- Jack Dorsey
- Description:
-
È possibile salvare Twitter? In una conversazione ad ampio raggio con Chris Anderson di TED e Whitney Pennington Rodgers, il CEO di Twitter Jack Dorsey parla del futuro della piattaforma, prende atto dei problemi con gli abusi in rete e la moderazione e propone cambiamenti significativi che spera possano incoraggiare un dialogo sano e rispettoso. La sua grande domanda è: "Stiamo dando qualcosa a cui la gente, giorno dopo giorno, dà valore?"
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 25:47
Michele Gianella approved Italian subtitles for How Twitter needs to change | ||
Michele Gianella accepted Italian subtitles for How Twitter needs to change | ||
Michele Gianella edited Italian subtitles for How Twitter needs to change | ||
Michele Gianella edited Italian subtitles for How Twitter needs to change | ||
Michele Gianella edited Italian subtitles for How Twitter needs to change | ||
Michele Gianella edited Italian subtitles for How Twitter needs to change | ||
Michele Gianella edited Italian subtitles for How Twitter needs to change | ||
Anna Cristiana Minoli edited Italian subtitles for How Twitter needs to change |