Revista de Comunicación de la SEECI (2025).
ISSN: 1576-3420
Recibido: 17/10/2024 --- Aceptado: 19/12/2024 --- Publicado: 30/05/2025 |
Hüseyin Yaşa: Independent Researcher. Turquía.
Yaşa, Hüseyin (2025). Análisis de opinión en vídeos de noticias sobre inteligencia artificial en Turquía: un caso de Youtube [Sentiment analysis of news videos about artificial intelligence in Turkey: A YouTube case]. Revista de Comunicación de la SEECI, 58, 1-22. https://doi.org/10.15198/seeci.2025.58.897
Introducción: El debate sobre el futuro de la Inteligencia Artificial (IA) se ha polarizado recientemente. Las diferencias de opinión positivas, negativas y neutras sobre la IA han llevado a la necesidad de profundizar en esta cuestión. En concreto, determinar el potencial de uso futuro de la IA mediante la identificación de los sentimientos y opiniones de los países al respecto se considera importante para desarrollar estrategias nacionales y regionales de IA. En este sentido, el objetivo de este estudio era determinar los estados de opinión de los turcos respecto a la IA. Para ello, se utilizó la plataforma de las redes sociales, ya que es una importante fuente de datos para determinar los sentimientos y opiniones de los individuos. Metodología: Se examinaron los comentarios de los usuarios en los posts publicados por los canales de noticias nacionales turcos en YouTube mediante el Análisis de Opinión (AO). En el método de AS aplicado, basado en diccionarios, los comentarios de los consumidores/seguidores se clasificaron en positivos, neutros y negativos en función de su puntuación de polaridad. Resultados: Los análisis indicaron que 697 (48,6%) de los comentarios de los usuarios eran positivos, 380 (26,5%) negativos y 357 (24,9%) neutros. Se concluyó que las opiniones de la sociedad turca hacia la IA eran generalmente positivas. Discusión y conclusiones: Los estados de opinión actuales de los usuarios de YouTube, con o sin conocimiento de la inteligencia artificial, pueden diferir en el futuro. Por lo tanto, podría considerarse predecible que, en el futuro, los usuarios más posicionados en estos procesos experimenten ciertos cambios en sus estados de opinión hacia temas concretos, de positivos a negativos, de negativos a positivos, o de estados de opinión neutros a positivos o negativos.
Palabras clave: Redes Sociales; Inteligencia Artificial; Usuario; Opiniones; Noticias; Análisis de Opinión; YouTube.
Introduction: Debate on the future of Artificial Intelligence (AI) has recently been polarized. Positive, negative, and neutral differences of opinion about AI have led to the need for further inquiry into this issue. In particular, establishing AI’s future potential of use by identifying the feelings and opinions of countries about AI is deemed significant for developing nationwide and regional AI strategies. In this regard, this study aimed to determine the emotional states of Turks toward AI. Social media platform was accordingly exploited since it is an important data source to determine individuals’ feelings and opinions. Methodology: User comments on the posts published by Turkish national news channels on YouTube were examined through Sentiment Analysis (SA). In the dictionary-based SA method implemented, consumer/follower comments were classified as positive, neutral, and negative according to their polarity scores. Results: Analyses indicated that 697 (48.6%) of user comments were positive, 380 (26.5%) were negative, and 357 (24.9%) were neutral. It was concluded that Turkish society’s feelings toward AI were generally positive. Discussion and Conclusions: YouTube users' current emotional states, with or without knowledge of artificial intelligence, may differ in the future. It might thus be viewed as predictable that in the future, users who are more positioned in these processes will experience certain shifts in their sentiment states toward specific issues, from positive to negative, from negative to positive, or from neutral sentimental states to positive or negative.
Keywords: Social Media; Artificial Intelligence; User; Opinions; News; Sentiment Analysis; YouTube.
McCarthy et al. (1955) definieron el concepto de IA como la ciencia y la ingeniería para crear máquinas inteligentes. En términos generales, la IA es la tecnología de inteligencia humana creada con la ayuda de programas informáticos (Tsaih y Hsu, 2018). La IA surgió entre 1950-1980, el aprendizaje automático entre 1980-2006 y el aprendizaje profundo entre 2006-2017. La IA tiene diferentes áreas de uso, como los sistemas que emulan el pensamiento y el comportamiento humano, los robots, los sistemas expertos, el procesamiento del lenguaje natural (PLN), el procesamiento de imágenes y el aprendizaje automático (Ercan, 2020). Es inevitable que la IA, creada a partir de la mente humana, exista en la vida humana, ya que facilita la vida. Sin embargo, los rápidos avances tecnológicos suscitan debates sobre si la IA planteará problemas a la humanidad en el futuro y si actuará en contra del control humano e independientemente de su sistema (Dilek, 2019). Las opiniones sociales negativas sobre la IA en la literatura se agruparon en desempleo (Frey y Osborne, 2017; Ghotbi et al., 2022; Lohr, 2017; Cheung et al., 2017), desigualdad (Bryson, 2019), ciberseguridad/violación ética (Pasquale, 2015; Jobin et al., 2019) y el miedo a que los robots controlen la sociedad (Ghotbi et al., 2022). Esto, a su vez, complica la evaluación de los posibles «beneficios» y «perjuicios» de la IA en el futuro y causa controversia (Ghotbi et al., 2022).
Desde una perspectiva social, para algunos la IA es la respuesta a todo, mientras que otros la consideran una amenaza importante (Pedersen y Johansen, 2020). Por ejemplo, algunos creen que la IA es un sistema que podría crear nuevas líneas de negocio (Borenstein, 2011), mientras que otros ven el desempleo como el mayor problema que la IA podría crear en la sociedad (Ghotbi et al., 2022; Lohr, 2017). Además, los científicos están divididos en dos polos opuestos de opiniones sobre el futuro de la IA. Mientras que distinguidos científicos como S. Hawking y E. Musk sostienen que la IA podría ser peligrosa en el futuro y condenar al fin de la humanidad, el fundador de Facebook, Mark Zuckerberg, y Cem Say afirman lo contrario (Efe, 2021).
En los artículos de The New York Times titulados «Computers Learn to Listen, and Some Talk Back (Los ordenadores aprenden a escuchar y algunos responden)» (Lohr y Markoff, 2010) y «Study to Examine Effects of Artificial Intelligence (Estudio para examinar los efectos de la inteligencia artificial)» (Markoff, 2014) se defendían opiniones diferentes sobre el desarrollo de la IA en la sociedad. En consecuencia, el debate sobre el futuro de la IA está polarizado. Las diferencias de opinión positivas y negativas sobre la IA han creado, por tanto, la necesidad de seguir investigando esta cuestión y recientemente han dado lugar a más conversaciones sobre las relaciones entre la IA y la sociedad (Gezgin, 2023). Los estudios sobre la IA y la percepción pública son un nuevo tema de investigación que ha cobrado importancia recientemente (Diallo et al., 2021).
Benyon et al. (2005) afirman que la estructura social y la cultura influyen en la aceptación de la tecnología de IA. En este sentido, es esencial comprender las opiniones del público en general para facilitar la aceptación social de la IA y la experiencia positiva del usuario (Ju y Takayama, 2011), ya que, cuando se evalúa en el contexto actual, se desarrollan estrategias de IA nacionales y regionales en todo el mundo. Se emplean numerosas tecnologías que remodelan las emociones individuales, especialmente revelando algorítmicamente las emociones humanas (Fazzin, 2019). Además, comprender las opiniones públicas sobre la IA y su gestión es esencial para crear políticas informadas y dar forma a la educación del público sobre el carácter, los beneficios y los riesgos de la IA (Zhang y Dafoe, 2019). Sindermann et al. (2021) sostuvieron que la IA es un fenómeno global, destacando la importancia de investigar su aceptación en varios idiomas y culturas. Sin embargo, los estudios sobre las perspectivas sociales de la IA son escasos en la literatura (Riley et al., 2009; Kamppuri et al., 2006).
En un estudio importante de la bibliografía sobre el tema de investigación, Bartneck et al. (2007) indagaron sobre las actitudes de las personas hacia los robots, y revelaron que, entre aproximadamente 500 participantes, los estadounidenses veían a los robots de forma positiva, mientras que los mexicanos los consideraban negativos. Ghotbi et al. (2022) examinaron los estados de opinión de 228 estudiantes universitarios (63 japoneses y 165 no japoneses) hacia la IA en una universidad internacional de Japón. La SA se realizó sobre textos de los estudiantes, revelando sentimientos generales positivos hacia la IA. En un estudio de Zhang y Dafoe (2019), se administró una encuesta a 2000 estadounidenses adultos para determinar sus actitudes y tendencias hacia la IA. Los resultados mostraron que los estadounidenses contrarios a la IA superaban en número a los estadounidenses favorables a la IA. En otro estudio, Fast y Horvitz (2017) analizaron los artículos de The New York Times publicados entre enero de 1986 y junio de 2016 para examinar cómo se reflejaban las percepciones públicas de la IA en la sociedad y cómo cambiaba la opinión reflejada con el tiempo. Los resultados indicaron que los artículos con contenido optimista sobre la IA superaron en número (aproximadamente tres veces) a los de contenido pesimista a lo largo de los treinta años. Sin embargo, destacaron un aumento de las noticias pesimistas y optimistas desde 2009. Riley et al. (2009) recogieron datos mediante una encuesta en India, Sudáfrica y Reino Unido para determinar las opiniones sobre los sistemas biométricos de reconocimiento facial, uno de los campos de estudio de la IA. Se observaron diferencias de opinión entre las distintas culturas. Mientras que los encuestados indios veían la biometría de forma positiva, los encuestados británicos tenían opiniones pesimistas. Ho et al. (2023) examinaron las percepciones de 245 visitantes de clínicas y hospitales de una región japonesa para medir la aceptación japonesa de las tecnologías de IA emocional, es decir, la tecnología de detección de opiniones. El estudio descubrió que los pacientes de mayor edad y de sexo masculino percibían la tecnología de IA emocional de forma más negativa. Del mismo modo, Johansson et al. (2024) llevaron a cabo un estudio para medir la percepción pública hacia el uso de la IA en la salud. El estudio pretendía explorar las percepciones y actitudes de las mujeres suecas hacia el uso de la IA en mamografías. La investigación reveló que percibían la IA como una herramienta valiosa en los procesos de toma de decisiones de los radiólogos, pero exigían y esperaban más de ellos. En otro estudio, Cohen et al. (2024) examinaron la percepción pública de ChatGPT, una tecnología de IA, en Twitter (denominada «X» desde julio de 2023). Su estudio reveló hallazgos específicos sobre preocupaciones éticas que podrían reflejar los aspectos funcionales y fundamentales de ChatGPT. En su estudio, Ko y Song (2024) utilizaron la metodología Q para examinar diversas percepciones de la ética de la IA entre 30 estudiantes de último curso de escuelas públicas de enseñanza media. La investigación dio como resultado cuatro clasificaciones (es decir, Guardianes de la Privacidad, Perseguidores de la Coexistencia de la IA, Conservadores de la Ética de la IA y Defensores de la Justicia Distributiva Interna), que reflejan las preocupaciones, actitudes hacia la IA y preferencias de valores de los estudiantes. La investigación también encontró consenso sobre la importancia de la dignidad humana y cierto desacuerdo sobre la distribución equilibrada de los beneficios económicos de la IA entre los países. Brauner et al. (2024) investigaron cómo percibían 122 participantes alemanes 38 afirmaciones sobre las tecnologías de IA en diversos contextos (personal, económico, industrial, social, cultural y sanitario). Su estudio indicó diferencias significativas entre las valoraciones percibidas y las expectativas. Además, dado que las tecnologías de IA siguen siendo, en muchos aspectos, una «caja negra», no se evaluaron adecuadamente ni las oportunidades ni los riesgos. Además, el estudio ofrecía importantes repercusiones para la promoción de la alfabetización en IA con el fin de facilitar la toma de decisiones en relación con las tecnologías de IA.
Los estudios de Riley et al. (2009), Bartneck et al. (2007) y Zhang y Dafoe (2019) abordaron las perspectivas sociales sobre la IA y revelaron diferencias de opinión entre las sociedades. La variedad de perspectivas sobre la IA entre sociedades y culturas ha planteado la cuestión de qué punto de vista hacia la IA prevalece en el imaginario de la sociedad turca. En el marco de este estudio, se analizaron mediante SA los comentarios de los vídeos publicados por los canales nacionales de noticias sobre IA en YouTube para conocer mejor las percepciones de la sociedad turca sobre la IA. La investigación es importante porque es el primer estudio que muestra la tendencia intelectual de la sociedad turca hacia la IA, y los datos son comparables con los de otras regiones.
Las plataformas de medios sociales como Instagram, Facebook, Twitter y YouTube son las herramientas de comunicación más potentes que permiten a los usuarios comunicarse en todo el mundo (Kaur y Sharma, 2020). En el mundo actual, estas redes sociales y sitios de microblogging se han convertido en importantes medios de transmisión para que las personas expresen sus opiniones sobre temas, películas, vídeos o productos en línea. El motivo de la preferencia de YouTube como muestra de investigación fue que permite a los usuarios compartir con otros los vídeos que han producido u ofrece diversas oportunidades en línea como gustar, no gustar, comentar y ver vídeos de otros. Además, los comentarios de los usuarios realizados en un entorno cómodo y por iniciativa propia son fuentes de datos importantes para los investigadores. Para los directivos de la industria, conocer la opinión de los clientes sobre sus productos y servicios supone importantes pérdidas temporales y monetarias. Por lo tanto, los comentarios de los usuarios en las redes sociales son fuentes de datos importantes para proporcionar información sobre el comportamiento de los usuarios, la opinión sobre los productos, las opiniones de los usuarios y los estados de opinión. Los intentos de determinar las actitudes de las personas hacia un tema o acontecimiento concreto en las redes sociales han fascinado a los investigadores, sobre todo en la última década (Nausheen y Begum, 2018; Yaşa, 2022; Soler et al., 2012). Por este motivo, el AO se ha convertido en un importante campo de investigación desde 2002 (Palanisamy et al., 2013). Así pues, el AO podría ser valioso para múltiples cuestiones de interés para los profesionales e investigadores de la interacción persona-ordenador y los de sociología, marketing y publicidad, psicología, economía y ciencias políticas (Hutto y Gilbert, 2014).
El AO es un campo de investigación novedoso que pretende revelar los sentimientos de las personas sobre una entidad utilizando la informática (Medhat et al., 2014). También se considera un campo de estudio dentro del ámbito de la minería de textos (Liu, 2012). Además, es un análisis que comprende una parte del PLN. Su objetivo principal es analizar todos los sentimientos presentes en los comentarios utilizando PLN (Hemmatian y Sohrabi, 2019).
Los primeros estudios sobre AO (Vasileios y Janyce, 2000; Tong, 2001; Turney, 2002; Pang et al., 2002) empezaron con clasificaciones de sentimientos a nivel de documento en la década de 2000 (Tan y Zhang, 2008), continuaron con evaluaciones a nivel de frase (Qian et al., 2022; Nezhad y Deihimi, 2022; Li et al., 2022) y pasaron a evaluaciones a nivel de expresión (Wilson et al., 2005; Agarwal et al., 2009). Dado que el AO en el nivel de documento es muy débil, los investigadores se han inclinado hacia la investigación de AO en oraciones y expresiones (Hemmatian y Sohrabi, 2019).
El AO consta de dos pasos. Primero se determina la objetividad o subjetividad de una frase o expresión. A continuación, se determina su polaridad (es decir, positiva, negativa, neutra) (Liu y Zhang, 2012; Stine, 2019; Pawar et al., 2015). Las técnicas utilizadas en SA se dividen en dos categorías principales: método de aprendizaje automático (Riaz et al., 2017) y enfoque basado en diccionarios (Khan et al., 2017). En los métodos de AO basados en el aprendizaje automático, los clasificadores de aprendizaje automático se entrenan con un conjunto de datos cuyo polo de opinión está etiquetado, y se crea un modelo de clasificación para determinar el polo de opinión de las nuevas muestras. Los métodos de SA basados en diccionarios, por su parte, explotan un diccionario que contiene palabras de opinión (Onan et al., 2016; Onan y Korukoğlu, 2016). En el ámbito de este estudio, las expresiones se sometieron a un AO simple, y se siguió el siguiente diagrama de flujo mediante el enfoque basado en diccionarios.
Figura 1.
Proceso de análisis de opinión
Fuente: Hemmatian y Sohrabi (2019).
Como se muestra en la Figura 1, el AO implica diferentes pasos. Tras los pasos de preprocesamiento, los sentimientos extraídos se agrupan en polos mediante algoritmos basados en el método del diccionario (Hemmatian y Sohrabi, 2019). Los algoritmos Linguistic Inquiry and Word Count (LIWC), General Inquirer (GI) y Hu-Liu04 se emplean como tres tipos de diccionario en el AO basado en diccionario al dividirse en clases binarias (es decir, positivas o negativas) según sus orientaciones semánticas independientes. Otros tres algoritmos de diccionario en los que las palabras se asocian con puntuaciones de valencia relacionadas con la intensidad emocional son Affective Norms for English Words (ANEW), SentiWordNet y SenticNet (Hutto y Gilbert, 2014). También se utilizan muchos algoritmos, como Naive Bayes y Valence Aware Dictionary for Sentiment Reasoning (VADER). Hutto y Gilbert (2014) desarrollaron VADER, un modelo simple basado en reglas para AO, y lo compararon con algoritmos de aprendizaje automático (por ejemplo, LIWC, Naive Bayes (NB), regresión de vectores de soporte (SWM-R), clasificación de máquinas de vectores de soporte (SWR-C), máxima entropía (ME) y algoritmos basados en diccionarios (por ejemplo, LIWC, GI, Hu-Liu04, ANEW, SentiWordNet y SenticNet). Sus resultados revelaron que VADER era el algoritmo con mejor rendimiento en la evaluación de opiniones en textos de redes sociales, con una precisión de clasificación de 0,96 y 0,84.
Mediante el uso del AO, este estudio evaluó los comentarios de los usuarios en los vídeos sobre IA compartidos por los canales de noticias nacionales de Turquía en YouTube, una de las plataformas de medios sociales. Esta sección incluye el conjunto de datos, la recopilación de datos, el preprocesamiento y el rendimiento del AO.
Se utilizó Google Colab como entorno de desarrollo y Python como lenguaje de software. Desarrollado por Guido Van Rossum a principios de la década de 1990, se prefirió Python por su facilidad de uso y sus completas bibliotecas para el aprendizaje automático, el análisis y el procesamiento de datos (Dierbach, 2012). También conocido como “Colaboratory”, Google Colab es un entorno de programación que permite escribir y ejecutar Python sin necesidad de configuración a través del navegador, con acceso gratuito a GPU y fácil uso compartido (Google Colab, 2023). Se empleó el programa de análisis de datos cualitativos MAXQDA para crear nubes de palabras.
En el estudio se emplearon bibliotecas como pandas, numPy, nltk, demoji y matplotlib.
El estudio incluyó un análisis de los comentarios turcos en los canales nacionales de noticias sobre IA en YouTube. El conjunto de datos obtenido se basó en los comentarios de los usuarios (excluidos los realizados entre usuarios) en YouTube el 05 de septiembre de 2023, en línea con los comentarios turcos sobre vídeos relacionados con la IA de los canales de noticias nacionales en Turquía.
En este estudio se incluyó una muestra de comentarios de usuarios en vídeos de noticias sobre «IA» de canales de noticias nacionales de Turquía porque los vídeos estaban directamente relacionados con el tema de la investigación y tenían un elevado número de «me gusta», «no me gusta», visualizaciones y comentarios. Por lo tanto, el elevado número de «me gusta», «no me gusta», visualizaciones y comentarios en comparación con otros vídeos de noticias sobre IA amplía aún más el impacto de la investigación y aumenta la intensidad de la interacción de los usuarios.
En los vídeos de noticias sobre IA, sólo se tomaron como base los comentarios principales porque cualquier usuario que comente por debajo de un comentarista principal puede crear un entorno de debate si contesta al comentarista principal y cambiar la percepción y la actitud de éste hacia la tecnología de IA. Esta situación también puede afectar al Análisis de opinión en puntos concretos. Por lo tanto, el estudio se basa únicamente en los comentarios de los principales usuarios en los vídeos de noticias en línea. En la Tabla 1 se presentan los canales de noticias nacionales que forman el conjunto de datos y el número de comentarios principales de los usuarios turcos en estos canales.
Títulos de noticias, URL, número de comentarios y canales de noticias en YouTube
Títulos y URL de las noticias |
Número de Comentarios |
Canales de Noticias |
Yapay zekâ insanlığın yerini mi alacak? Ertan Özyiğit ile Kayıt Dışı - 19 Mart 2021 [¿Sustituirá la inteligencia artificial a la humanidad? En exclusiva con Ertan Özyiğit - 19 de marzo de 2021] |
263 |
TV100 |
ChatGPT programı ne kadar “Zeki”? | Teke Tek Bilim - 23 Ocak 2023 [¿ Cuán «inteligente» es el programa ChatGPT ? | Head to Head Science – 23 de enero de 2023] |
248 |
HabertürkTV
|
Robot öfkelendi, insana müdahale etti! [¡El robot se puso furioso y respondió al humano!!] |
181 |
TV100 |
Abdullah Çiftçi: “Türkler yapay zekâ alanında dünyada ilk 5'te” [Abdullah Çiftçi: “Los turcos están entre los 5 primeros del mundo en inteligencia artificial.”] |
163 |
CNN TÜRK |
Bilim Kurgu Filmlerini Aratmayan Olay: Yapay Zekâ Komutanını Öldürdü [Un incidente propio de una película de ciencia ficción: la inteligencia artificial mató a su operador humano.] - TGRT Haber |
134 |
TGRT Haber TV |
Yapay Zekâ Kafesinden Kaçtı | Aralarında Güç Savaşı Başlayabilir! [La Inteligencia Artificial Escapó de su Jaula | ¡Se Puede Desatar una Lucha de Poder!] |
100 |
Haber Global |
Google’ın Elini Ayağını Dolandıran Olay! Yapay Zekâ İddiası Gündemi Sarstı [¡El Incidente que No Sorprendió a Google! ¡ Las Reclamaciones de la Inteligencia Artificial Sacudieron la Agenda!] |
69 |
Haber Global
|
Yapay zekâ kendini nasıl geliştiriyor? | Teke Tek Bilim - 5 Eylül 2021 [¿Cómo Se Mejora La Inteligencia Artificial a Sí Misma? | Head to Head Science - 5 de septiembre de 2021] |
66 |
HabertürkTV
|
Yapay Zekâ Tehdit Mi Fayda Mı? | Yapay Zekânın Karanlık Yüzü | 22.07.2023 Sıra Dışı Gündem [¿Es La Inteligencia Artificial Amiga o Enemiga? | El Lado Oscuro de la Inteligencia Artificial.| 22 de julio de 2023 Extraordinary Agenda] |
53
|
Haber Global |
Ürküten Görüntüler! “Yapay Zekâ İnsanlığı Ele Geçirecek” [¡Imágenes Aterradoras! “La Inteligencia Artificial se Apoderará de la Humanidad”] |
45 |
Haber Global
|
13 yıllık yuvada '“Yapay zekâ'“ çatlağı! [“Inteligencia Artificial” ¡Resquebrajamiento en La Casa de 13 Años!] |
37 |
Show Ana Haber |
Erdoğan'ın sesini yapay zekâ ile taklit etti [Imitó la voz de Erdoğan usando Inteligencia Artificial.] |
36 |
Show Ana Haber |
Yapay Zekâ Canlandı mı? Google Ne Yapacağını Şaşırdı! [¿Se Revitaliza la Inteligencia Artificial? ¡Google Pierde el Rumbo!] |
30 |
Haber Global
|
Yapay zekâ insan beynini hantallaştırıyor mu? | Teke Tek Bilim [¿La Inteligencia Artificial Entorpece el Funcionamiento del Cerebro Humano?? | Head to Head Science] |
30 |
HabertürkTV
|
Teke Tek Bilim'de yapay zekâ teknolojileri konuşuluyor... [Las Tecnologías de Inteligencia Artificial se Tratan en Head to Head Science...] |
28 |
HabertürkTV |
Fuente: Elaboración propia.
Se puede acceder fácil y rápidamente al conjunto de datos sobre un tema de investigación a través de las plataformas de medios sociales. Sin embargo, al utilizar estos entornos para expresar opiniones sobre un tema concreto, los errores ortográficos cometidos por los usuarios y algunas oportunidades que brindan estas plataformas, como los emojis, las menciones a otras personas o las referencias (hashtags), requieren algunas medidas antes de obtener los resultados de la investigación. Para que el modelo de clasificación utilizado en el estudio ofrezca resultados precisos, a continuación, se presentan los procedimientos aplicados a todas las acciones del conjunto de datos obtenidos mediante el programa de análisis de datos cualitativos MAXQDA:
Preprocesamiento del conjunto de datos
Fuente: Elaboración propia.
La etapa de preprocesamiento se aplicó principalmente al conjunto de datos obtenidos mediante el programa MAXQDA. En esta etapa, se aplicó inicialmente la «tokenización», se dividieron los textos en palabras y se eliminaron sufijos específicos. En el proceso de «transformación» posterior, el conjunto de datos turcos se tradujo al inglés y las letras mayúsculas se convirtieron en minúsculas. En la tercera etapa, «filtrado», se filtraron los hashtags (#) y las palabras que empezaban por, como nombres de usuario, URL, expresiones faciales utilizadas para expresar emociones (emojis), expresiones numéricas, signos de puntuación y algunas palabras que podrían no afectar al AO. Por último, tras el paso de preprocesamiento de datos, se eliminaron las líneas en blanco del conjunto de datos.
Figura 3.
Modelo de Análisis de Opinión
Fuente: Tarakcı (2023).
Tras el preprocesamiento de los datos, el AO se llevó a cabo con el procesamiento del lenguaje «Valence Aware Dictionary for Sentiment Reasoner (VADER (Diccionario consciente de la valencia para el razonamiento del sentimiento)», una de las bibliotecas más populares de PNL. Se prefirió VADER porque el idioma de los datos procesados es el inglés, y es una herramienta de AO basada en palabras y reglas que se adapta a los sentimientos expresados en entornos de medios sociales. También tiene en cuenta las variables de orden y grado de las palabras (Chauhan et al., 2018). Se utilizaron puntuaciones específicas recomendadas para clasificar las opiniones a través del instrumento Vader de AO, propuesto por Hutto ve Gilbert en 2014. Se prefirieron palabras predefinidas para intensidades sentimentales positivas, negativas y neutras. Las palabras se emparejan con puntuaciones que expresan la intensidad sentimental. La intensidad sentimental de los datos se calcula sumando las puntuaciones de cada palabra de los datos. En la lista de palabras, a las características se les asignan valores entre [-4, +4] que indican la polaridad y la intensidad del sentir. En el siguiente paso, se recogen los valores de cada palabra del diccionario y se ajustan de acuerdo con las reglas y, por último, se calcula una puntuación combinada en el intervalo [-1, +1]. Los valores de umbral específicos utilizados en este estudio para clasificar los comentarios de los usuarios de YouTube como positivos, negativos o neutros mediante VADER son los siguientes: «𝐹𝑝𝑖 = positivo 𝑣𝑠 >= 0,05 / negativo 𝑣𝑠 <= -0,05 / neutro en otros casos» (Hutto y Gilbert, 2014; Aslan, 2023). En función de los valores, el valor compuesto obtenido tras el AO se clasifica como positivo si es mayor o igual que [+,05], negativo si es menor o igual que [-,05] y neutro si es entre [+,05]. y [-,05]. Los resultados del AO se presentan en la sección de conclusiones.
Tras el preprocesamiento del conjunto de datos compuesto por 1483 comentarios de usuarios obtenidos de YouTube, se determinó que 1434 comentarios eran adecuados para el AO. Los comentarios del conjunto de datos resultante se clasificaron en tres clases de opiniones: positiva, negativa y neutra. En la Tabla 1 se muestran las distribuciones numéricas y porcentuales de los datos en relación con las clasificaciones de las opiniones.
Figura 4.
Estados de Opinión de las Publicaciones
Fuente: Elaboración propia.
En la Figura 4 se muestra el AO de los comentarios de los usuarios sobre los vídeos relacionados con la IA de los canales de noticias nacionales turcos. El examen tabular en el marco de la clasificación Vader basada en diccionarios reveló los siguientes porcentajes: comentarios positivos (48,6%), comentarios negativos (26,5%) y comentarios neutros (24,9%). Además, 697 de los 1.434 comentarios de los usuarios en 15 vídeos sobre IA en canales de noticias nacionales eran positivos, 380 eran negativos y 357 tenían sentimientos neutros. En consecuencia, los resultados indicaron que los estados de opinión de los usuarios eran predominantemente positivos, con formas de opinar negativas y neutras casi iguales o cercanas entre sí.
Ejemplos de comentarios de usuarios sobre noticias, puntuaciones y etiquetas
Comentarios de los Usuarios |
Puntuación de AO |
Etiquetas |
¡Esto es increíble! Da respuestas lógicas sin importar lo que preguntes. |
{'neg': 0.0, 'neu': 0.594, 'pos': 0.406, 'compound': 0.6249} |
Positivo |
La inteligencia humana se detuvo en un lugar. Es la IA la que permitirá a la humanidad progresar. |
{'neg': 0.109, 'neu': 0.229, 'pos': 0.663, 'compound': 0.8658} |
Positivo |
Los soldados robot son obligatorios ahora. Los robots lucharán en el cuartel general en lugar de jóvenes soldados. |
{'neg': 0.0, 'neu': 0.492, 'pos': 0.508, 'compound': 0.4767} |
Positivo |
No hay ningún problema entre las personas y los códigos. |
{'neg': 0.104, 'neu': 0.578, 'pos': 0.319, 'compound': 0.9756} |
Positivo |
La IA sirve a la humanidad. |
{'neg': 0.0, 'neu': 0.648, 'pos': 0.352, 'compound': 0.6632} |
Positivo |
La IA será racista. Eso es seguro. |
{'neg': 0.396, 'neu': 0.297, 'pos': 0.307, 'compound': -0.2263} |
Negativo |
La IA no hace más que la gente sea perezosa. |
{'neg': 0.677, 'neu': 0.323, 'pos': 0.0, 'compound': -0.2732} |
Negativo |
Si la IA supera a su creador, será la perdición de la humanidad. |
{'neg': 0.396, 'neu': 0.321, 'pos': 0.283, 'compound': -0.2741} |
Negativo |
La gente estará desempleada debido a estos robots. |
{‘neg’: 1.0, ‘neu’: 0.0, ‘pos’: 0.0, ‘compound’: -0.4019} |
Negativo |
Es un peligro tanto para la humanidad como para todos los seres vivos. No tienen compasión. |
{'neg': 0.279, 'neu': 0.45, 'pos': 0.27, 'compound': -0.0258} |
Negativo |
Aquí está el futuro para ti. |
{'neg': 0.0, 'neu': 1.0, 'pos': 0.0, 'compound': 0.0} |
Neutral |
Como humano. |
{'neg': 0.0, 'neu': 1.0, 'pos': 0.0, 'compound': 0.0} |
Neutral |
¡De ningún modo! |
{'neg': 0.0, 'neu': 1.0, 'pos': 0.0, 'compound': 0.0} |
Neutral |
Todo es simplemente software. |
{'neg': 0.0, 'neu': 1.0, 'pos': 0.0, 'compound': 0.0} |
Neutral |
Esto es ultra realista. |
{'neg': 0.0, 'neu': 1.0, 'pos': 0.0, 'compound': 0.0} |
Neutral |
Fuente: Elaboración propia.
La Tabla 2 muestra los comentarios de los usuarios, las puntuaciones de AO y las etiquetas de los vídeos de noticias de YouTube sobre IA. A partir de los comentarios de muestra de los usuarios, a los comentarios que no indican ningún estado de sentimientos o que contienen mayoritariamente expresiones interrogativas se les asignó una etiqueta neutra que especificaba la puntuación de polaridad como «0». Se crearon otras puntuaciones a las que se asignaron distintos valores tras calcular las palabras de las frases positivas o negativas.
Nube de palabras de los comentarios de noticias
Fuente: Elaboración propia.
Las nubes de palabras permiten interpretar las palabras más utilizadas en un conjunto de datos de investigación en un contexto específico y visualizar y presentar los temas en función de los resultados (Williams et al., 2013). Se creó una nube visual de palabras a partir de los comentarios de los usuarios sobre los vídeos de canales nacionales en YouTube relacionados con la IA. Como se ve en la Figura 5, las palabras de los comentarios de los usuarios se modelaron visualmente según su tamaño y color. Mientras que las palabras más utilizadas en la nube tienen formas oscuras y grandes, las que tienen formas claras y pequeñas se refieren a una frecuencia reducida (Yaşa, 2022).
En este contexto, una interpretación mediante figuras indica que la palabra más frecuente fue en inglés «intelligence» (inteligencia), seguida de «artificial, people, world, program, human, god, robot, teacher, time» (artificial, gente, mundo, programa, humano, dios, robot, profesor, tiempo). Las frecuencias y porcentajes de estas palabras figuran en la tabla siguiente. En función de las palabras más repetidas, las opiniones de los usuarios sobre la IA se centraron en tres temas principales: 1) definición y características de la IA (por ejemplo, inteligencia artificial), 2) efectos de la IA en los individuos y la sociedad (por ejemplo, gente, mundo, humano y dios), 3) efectos funcionales y tecnológicos de la IA (por ejemplo, robot, programa, profesor y tiempo). Estos temas indican cómo los individuos perciben la IA y la abordan desde diferentes perspectivas.
Las 10 palabras con mayor frecuencia y porcentaje en los comentarios de las noticias
Número total de palabras =17 434 |
Frecuencia |
% |
Inteligencia |
311 |
1,78 |
Artificial |
297 |
1,70 |
Personas |
228 |
1,31 |
Mundo |
109 |
0,63 |
Programa |
105 |
0,60 |
Humano |
94 |
0,54 |
Dios |
92 |
0,53 |
Robot |
83 |
0,48 |
Profesor |
77 |
0,44 |
Tiempo |
77 |
0,44 |
Fuente: Elaboración propia.
El número total de palabras en los comentarios de los usuarios sobre el tema fue de 17.434. Un examen detallado de las frecuencias y porcentajes de las palabras más frecuentes en los comentarios de los usuarios sobre los vídeos de YouTube arrojó las siguientes estadísticas sobre las 10 palabras en inglés más frecuentes: «inteligencia» n=311 (1,18%), «artificial» n=297 (1,70%), «gente» n=228 (1,31%), «mundo» n=109 (0,63%), «programa» n=105 (0,60%), «humano» n=94 (0,54%), «dios» n=92 (0,53%), «robot» n=83 (0,48%), y “profesor” y «tiempo» n=77 (0,44%). Dado que el tema de la investigación era la IA, era de esperar que la palabra más frecuente fuera «inteligencia», pero otras palabras también apoyan el tema de la investigación. Además, el hecho de que las personas expresaran sus opiniones sobre la IA con palabras como «human (humano)» y «god (dios)» refleja un estado de conciencia particular con respecto a las dimensiones religiosas y éticas de la IA y sus efectos en las personas. En este punto, la posibilidad de que la IA sea percibida como «dios» por los individuos o de que la IA tenga características individuales sugiere la incertidumbre de los límites de las relaciones entre humanos y máquinas. Además, palabras repetitivas como «robot» y «programa» podrían enfatizar las percepciones de los individuos sobre la tecnología y sus opiniones sobre la IA. Por lo tanto, podemos concluir que los individuos expresaron sus opiniones teniendo en cuenta la información técnica en sus percepciones de la IA y los valores sociales y éticos positivos o negativos con respecto a la humanidad.
Frecuencia y porcentajes de las 10 palabras más negativas en los comentarios sobre Inteligencia Artificial
Número total de palabras =17 434 |
Frecuencia |
% |
No se puede |
56 |
0,32 |
Atención |
27 |
0,15 |
Miedo |
26 |
0,15 |
Malo |
26 |
0,15 |
Mal |
21 |
0,12 |
Destruir |
20 |
0,11 |
Peligroso |
16 |
0,09 |
Matar |
16 |
0,09 |
Falso |
15 |
0,09 |
Problema |
13 |
0,07 |
Fuente: Elaboración propia.
La distribución de frecuencias y porcentajes de las palabras negativas más utilizadas en los comentarios de los usuarios sobre los vídeos de YouTube demostró que «no se puede» se utilizó n=56 (0,03%) veces. Por el contrario, las otras tres palabras (n=27 atención, n=26 miedo, n=26 mal) fueron iguales (0,15%) en el grupo de palabras negativas, y la palabra «mal» se utilizó n=21 (0,12%). Además, la palabra «destruir», que figura entre los diez primeros grupos de palabras negativas, apareció en las opiniones de los usuarios n=20 veces (0,11%), mientras que las otras dos palabras (peligroso, matar) aparecieron en el grupo de palabras negativas n=16 veces con una tasa igual (0,09%). El análisis de las otras diez palabras negativas principales reveló que «falso» se utilizó n=15 (0,15%) y «problema» n=228 (1,31%) veces. El grupo de palabras negativas informa de que los usuarios se quejan de problemas relacionados con la IA. Las palabras «atención», “miedo” y «malo», que aparecen por igual en las declaraciones de los usuarios, indican sentimientos negativos hacia la IA. Además, basándose en los diez primeros grupos de palabras y en los demás grupos de palabras negativas, los usuarios también mencionaron que podrían producirse diversos problemas de seguridad señalando que las tecnologías de IA pueden ser erróneas, destructivas y preocupantes en sus vidas en las frases formadas por estas palabras negativas. Además, los usuarios expresaron la opinión negativa de que algunas profesiones podrían desaparecer debido a las tecnologías de IA, lo que provocaría desempleo, amenazas para los seres vivos, problemas de seguridad en zonas militares y la adquisición de conocimientos y habilidades como ocurre con las personas.
La tecnología de la IA influye en la vida de las personas y las sociedades de diferentes maneras. Por lo tanto, suscita debates sobre si mejorará o empeorará la vida humana en el futuro. Las diferencias de opinión hacen necesaria la investigación sobre la IA y las percepciones del público. En este contexto, es esencial comprender la opinión pública para interpretar la aceptación social de la IA. Dado que en el ámbito del estudio realizamos una encuesta de opinión (negativa/positiva/neutral) sobre la sociedad turca, sus estados de opinión sobre el tema podrían considerarse un fiel reflejo de la posibilidad de utilizar la IA en el futuro. En este punto surge el principal objetivo del estudio. Mediante el método de muestreo intencionado, este estudio incluyó comentarios de usuarios en programas de noticias o debates en YouTube de canales nacionales turcos para determinar sus estados de opinión respecto a las tecnologías de IA.
El AO demostró que 697 (48,6%) de los comentarios de los usuarios en vídeos sobre IA en los canales de noticias nacionales de Turquía fueron positivos, 380 (26,5%) fueron negativos y 357 (24,9%) fueron neutrales. Según los resultados, la proximidad entre los estados de opinión negativos y neutrales fomenta la posibilidad de que los usuarios tengan una percepción generalmente positiva de la IA. «Inteligencia» fue la palabra más frecuente, seguida de «artificial, gente, mundo, programa, humano, dios, robot, maestro, tiempo». Este estudio reveló que las palabras y los temas que se repiten con más frecuencia en los comentarios de los usuarios sobre la IA podrían evaluarse en el ámbito de los temas relacionados con la IA, orientando a los futuros investigadores interesados en el tema. Por tanto, gracias a estas palabras, los investigadores pueden comparar los resultados de sus estudios o ampliar sus investigaciones basándose en ellas. Al mismo tiempo, la creación de temas específicos en la investigación basados en las palabras más repetidas por los usuarios servirá de guía a los usuarios que realicen investigaciones en el futuro. Lo mismo ocurre con los estados de opinión de los usuarios obtenidos como resultado del análisis de opiniones. Así, los datos obtenidos en el contexto de Turquía también proporcionarán datos para inevitables comparaciones a nivel de distintos países.
Acomodar la tecnología de la IA, producto de las nuevas tecnologías de la información y la comunicación a nivel mundial, no ocurrirá de improviso para los individuos y las sociedades. Como se desprende del conjunto de datos, se plantearon interrogantes específicos en las opiniones y pensamientos de los usuarios de YouTube en el marco de su actitud neutral hacia la IA. Los usuarios con poca o ninguna información sobre la IA podrían adquirir más conocimientos si participaran en este tipo de procesos en el futuro. Los estados de opinión actuales sobre un tema concreto pueden diferir de los futuros. Por tanto, podría considerarse predecible que, en el futuro, los usuarios más posicionados en estos procesos experimenten ciertos cambios en sus estados de opinión hacia temas concretos, de positivos a negativos, de negativos a positivos, o de estados de opinión neutros a positivos o negativos. Los resultados del estudio servirán, por lo tanto, como fuente para futuros investigadores, a los que proporcionarán un importante apoyo y abrirán nuevas áreas de debate para sus investigaciones.
Como toda investigación, esta se llevó a cabo con ciertas limitaciones. El estudio incluyó comentarios de usuarios en el marco de programas informativos o de debate en YouTube, uno de los entornos de medios sociales de las cadenas nacionales en Turquía. Por lo tanto, la principal limitación de este estudio fue su análisis únicamente de la plataforma YouTube y de los comentarios de los usuarios en línea sobre quince vídeos populares de IA. La investigación se basa en los comentarios más destacados en la plataforma YouTube el 05 de septiembre de 2023. Por tanto, se excluyeron los comentarios posteriores a esta fecha. Otra limitación fue el uso del algoritmo VADER.
Como resultado, las aplicaciones de la IA se han convertido en uno de los temas de investigación más importantes a nivel local y mundial. Explorar las percepciones y actitudes de los países sobre la IA y su potencial de uso futuro es crucial para desarrollar estrategias nacionales y regionales de IA. La aceptación de la IA, un fenómeno global, podría investigarse en varios idiomas y culturas. Se recomienda a los futuros investigadores que aumenten la diversidad y el tamaño del conjunto de datos sobre el mismo tema y lleven a cabo el AO con diferentes algoritmos de clasificación basados en el aprendizaje profundo. Además, los datos obtenidos de diferentes entornos de medios sociales pueden utilizarse para clasificar las emociones de forma comparativa. Al realizar análisis de contenido sobre los datos, se pueden llevar a cabo nuevos estudios descriptivos dentro de temas específicos. El método de la netnografía puede proporcionar abundantes datos sobre las percepciones y actitudes de los usuarios en línea hacia las tecnologías de IA en diversos entornos de medios sociales. Además, se pueden descubrir interacciones relevantes mediante la realización de análisis de redes sociales con datos de distintos entornos de medios sociales.
Agarwal, A., Biadsy, F. y Mckeown, K. (2009). Contextual phrase-level polarity analysis using lexical affect scoring and syntactic n-grams. En Proceedings of the 12th Conference of the European Chapter of the Association for Computational Linguistics (EACL '09) (pp. 24-32). Association for Computational Linguistics. https://doi.org/10.3115/1609067.1609069
Aslan, S. (2023). Doğal dil işleme teknikleri kullanarak e-ticaret kullanıcı incelemelerinde özellik tabanlı duygu analizi. Fırat Üniversitesi Mühendislik Bilimleri Dergisi, 35(2), 875-882. https://doi.org/10.35234/fumbd.1335583
Bartneck, C., Suzuki, T., Kanda, T. y Nomura, T. (2007). The influence of people's culture and prior experiences with Aibo on their attitude towards robots. Ai & Society, 21, 217-230. https://doi.org/10.1007/s00146-006-0052-7
Benyon, D., Turner, P. y Turner S. (2005). Designing interactive systems. Pearson Education.
Borenstein, J. (2011). Robots and the changing workforce. AI & Society, 26, 87-93. https://doi.org/10.1007/s00146-009-0227-0
Brauner, P., Hick, A., Philipsen, R. y Ziefle, M. (2023). What does the public think about artificial intelligence?—A criticality map to understand bias in the public perception of AI. Frontiers in Computer Science, 5. https://doi.org/10.3389/fcomp.2023.1113903
Bryson, J. J. (2019). The past decade and future of AI's impact on society. En M. Baddeley (Ed.), Towards a new enlightenment? A transcendent decade (Vol. 11). Turner. https://www.bbvaopenmind.com/wp-content/uploads/2019/02/BBVA-OpenMind-Joanna-J-Bryson-The-Past-Decade-and-Future-of-AI-Impact-on-Society.pdf
Chauhan, V. K., Bansal, A. y Goel, D. A. (2018). Twitter sentiment analysis using vader. International Journal of Advance Research, Ideas and Innovations in Technology (IJARIIT), 4(1), 485-489. https://www.ijariit.com/manuscripts/v4i1/V4I1-1307.pdf
Cheung, C. W., Tsang I. T. y Wong, K. H. (2017). Robot Avatar: A Virtual Tourism Robot for People with Disabilities. International Journal of Computer Theory and Engineering, Singapore, 9(3), 229-234. https://doi.org/10.7763/IJCTE.2017.V9.1143
Cohen, M., Khavkin, M., Movsowitz Davidow, D. y Toch, E. (2024). ChatGPT in the public eye: Ethical principles and generative concerns in social media discussions. New Media & Society. https://doi.org/10.1177/14614448241279034
Diallo, S. Y., Shults, F. L. y Wildman, W. J. (2021). Minding morality: ethical artificial societies for public policy modeling. AI & society, 36(1), 49-57. https://doi.org/10.1007/s00146-020-01028-5
Dierbach, C. (2012). Introduction to computer science using python: A computational problem-solving focus. Wiley Publishing.
Dilek, Ö. G. (2019). Yapay zekanın etik gerçekliği. Ankara Uluslararası Sosyal Bilimler Dergisi, 2(4), 47-59. https://dergipark.org.tr/tr/pub/usdad/issue/51335/642184
Efe, A. (2021). Yapay Zekâ Risklerinin Etik Yönünden Değerlendirilmesi. Bilgi ve İletişim Teknolojileri Dergisi, 3(1), 1-24. https://dergipark.org.tr/tr/pub/bited/issue/63346/859894
Ercan, F. (2020). Turizm pazarlamasında yapay zekâ teknolojilerinin kullanımı ve uygulama örnekleri. Ankara Hacı Bayram Veli Üniversitesi Turizm Fakültesi Dergisi, 23(2), 394-410. https://doi.org/10.34189/tfd.23.02.009
Fast, E. y Horvitz, E. (2017, February). Long-Term Trends in the Public Perception of Artificial Intelligence. Proceedings of the AAAI Conference on Artificial Intelligence, 31(1). https://doi.org/10.1609/aaai.v31i1.10635
Fazzin, S. (2019) The Future of Emotions in the Workplace: The Role of Artificial Intelligence in Modern Personnel Management. En Emotion-Based Approaches to Personnel Management: Emerging Research and Opportunities. IGI Global. https://doi.org/10.4018/978-1-5225-8398-1.ch009
Frey, C. B. y Osborne, M. A. (2017). The future of employment: How susceptible are jobs to computerisation?. Technological Forecasting and Social Change, 114, 254-280. https://doi.org/10.1016/j.techfore.2016.08.019
Gezgin, U. B. (2023). Yapay Zeka ve Toplum: Yapay Zeka Sosyolojisiyle Eleştirel Bir Bakış. In Yapay Zeka Psikolojisi ve Sosyolojisi (pp. 7-26). Serüven. https://hdl.handle.net/20.500.12941/182
Ghotbi, N., Ho, M. T. y Mantello, P. (2022). Attitude of college students towards ethical issues of artificial intelligence in an international university in Japan. AI & Society, 37, 283-290. https://doi.org/10.1007/s00146-021-01168-2
Google Colab. (s.f.). Te damos la bienvenida a Colab. https://colab.research.google.com/
Hemmatian, F. y Sohrabi, M. K. (2019). A survey on classification techniques for opinion mining and sentiment analysis. Artificial Intelligence Review, 52, 1495-1545. https://doi.org/10.1007/s10462-017-9599-6
Ho, M. T., Le, N. T. B., Mantello, P., Ho, M. T. y Ghotbi, N. (2023). Understanding the acceptance of emotional artificial intelligence in Japanese healthcare system: A cross-sectional survey of clinic visitors’ attitude. Technology in Society, 72, 102166. https://doi.org/10.1016/j.techsoc.2022.102166
Hutto, C. y Gilbert, E. (2014). VADER: A Parsimonious Rule-Based Model for Sentiment Analysis of Social Media Text. Proceedings of the International AAAI Conference on Web and Social Media, 8(1), 216-225. https://doi.org/10.1609/icwsm.v8i1.14550
Jobin, A., Ienca, M. y Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399. https://doi.org/10.1038/s42256-019-0088-2
Johansson, J. V., Dembrower, K., Strand, F. y Grauman, Å. (2024). Women's perceptions and attitudes towards the use of AI in mammography in Sweden: a qualitative interview study. BMJ Open, 14(2), e084014. https://doi.org/10.1136/bmjopen-2024-084014
Ju, W. y Takayama L. (2011). Should robots or people do these jobs? A survey of robotics experts and non-experts about which jobs robots should do. En 2011 IEEE/RSJ International Conference on Intelligent Robots and Systems (pp. 2452-2459). https://doi.org/10.1109/IROS.2011.6094759
Kamppuri, M., Bednarik, R. y Tukiainen, M. (2006). The expanding focus of HCI: case culture. En A. Mørch, K. Morgan, T. Bratteteig, G. Ghosh, D. Svanaes (Eds.), NordiCHI '06: Proceedings of the 4th Nordic conference on Human-computer interaction: changing roles (pp. 405-408). Association for Computing Machinery. https://doi.org/10.1145/1182475.1182523
Kaur, C. y Sharma, A. (2020). Social issues sentiment analysis using python. En 2020 5th international conference on computing, communication and security (ICCCS) (pp. 1-6). IEEE. https://doi.org/10.1109/ICCCS49678.2020.9277251
Khan, F. H., Qamar, U. y Bashir, S. (2017). Lexicon based semantic detection of sentiments using expected likelihood estimate smoothed odds ratio. Artificial Intelligence Review, 48, 113-138. https://doi.org/10.1007/s10462-016-9496-4
Ko, J. y Song, A. (2024). Youth perceptions of AI ethics: a Q methodology approach. Ethics & Behavior, 1-18. https://doi.org/10.1080/10508422.2024.2396582
Li, H., Chen, Q., Zhong, Z., Gong, R. y Han, G. (2022). E-word of mouth sentiment analysis for user behavior studies. Information Processing & Management, 59(1), 102784. https://doi.org/10.1016/j.ipm.2021.102784
Liu B. y Zhang, L. (2012). A Survey of Opinion Mining and Sentiment Analysis. En C. Aggarwal and C. Zhai (Eds.), Mining text data (pp. 415-463). Springer. https://doi.org/10.1007/978-1-4614-3223-4_13
Liu, B. (2012). Sentiment analysis and opinion mining. En Synthesis Lectures on Human Language Technologies. Springer Nature. https://doi.org/10.1007/978-3-031-02145-9
Lohr, S. (January 12, 2017). Robots Will Take Jobs, but Not as Fast as Some Fear, New Report Says. The New York Times. https://www.nytimes.com/2017/01/12/technology/robots-will-take-jobs-but-not-as-fast-as-some-fear-new-report-says.html
Lohr, S. y Markoff, J. (June 24, 2010). Computers Learn to Listen, and Some Talk Back. The New York Times. https://www.nytimes.com/2010/06/25/science/25voice.html
Markoff, J. (December 15, 2014). Study to Examine Effects of Artificial Intelligence. The New York Times. https://www.nytimes.com/2014/12/16/science/century-long-study-will-examine-effects-of-artificial-intelligence.html
McCarthy, J., Minsky, M., Rochester, N. y Shannon, C. (1955). A proposal for the Dartmouth Summer Research Project on Artificial Intelligence. http://wwwformal.stanford.edu/jmc/history/dartmouth.pdf
Medhat, W., Hassan, A. y Korashy, H. (2014). Sentiment analysis algorithms and applications: A survey. Ain Shams Engineering Journal, 5(4), 1093-1113. https://doi.org/10.1016/j.asej.2014.04.011
Nausheen, F. y Begum, S. H. (2018). Sentiment analysis to predict election results using Python. En 2018 2nd international conference on inventive systems and control (ICISC) (pp. 1259-1262). IEEE. https://doi.org/10.1109/ICISC.2018.8399007
Nezhad, Z. B. y Deihimi, M. A. (2022). Twitter sentiment analysis from Iran about COVID 19 vaccine. Diabetes & Metabolic Syndrome: Clinical Research & Reviews, 16(1), 102367. https://doi.org/10.1016/j.dsx.2021.102367
Onan, A. y Korukoğlu, S. (2016). A review of literature on the use of machine learning methods for opinion mining. Pamukkale Üniversitesi Mühendislik Bilimleri Dergisi, 22(2), 111-122. https://doi.org/10.5505/pajes.2015.90018
Onan, A., Korukoğlu, S. y Bulut, H. (2016). A multiobjective weighted voting ensemble classifier based on differential evolution algorithm for text sentiment classification. Expert Systems with Applications, 62, 1-16. https://doi.org/10.1016/j.eswa.2016.06.005
Palanisamy, P., Yadav, V. y Elchuri, H. (2013, June). Serendio: Simple and Practical lexicon based approach to Sentiment Analysis. En Second Joint Conference on Lexical and Computational Semantics (* SEM), Volume 2: Proceedings of the Seventh International Workshop on Semantic Evaluation (SemEval 2013) (pp. 543-548). https://aclanthology.org/S13-2091/
Pang, B., Lee, L. y Vaithyanathan, S. (2002). Thumbs up?: Sentiment Classification Using Machine Learning Techniques. En Proceedings of the ACL-02 conference on Empirical methods in natural language processing - Volume 10 (EMNLP '02) (pp. 79-86). Association for Computational Linguistics. https://doi.org/10.3115/1118693.1118704
Pasquale, F. (2015). The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press. https://doi.org/10.4159/harvard.9780674736061
Pawar, K. K., Shrishrimal, P. P. y Deshmukh, R. R. (2015). Twitter Sentiment Analysis: A Review. International Journal of Scientific & Engineering Research, 6(4), 957-964. https://www.researchgate.net/profile/Kishori-Pawar/publication/277554643_Twitter_Sentiment_Analysis_A_Review/links/556c64a008aec22683049811/Twitter-Sentiment-Analysis-A-Review.pdf
Pedersen, T. y Johansen, C. (2020). Behavioural artificial intelligence: an agenda for systematic empirical studies of artificial inference. AI & Society, 35, 519-532. https://doi.org/10.1007/s00146-019-00928-5
Qian, C., Mathur, N., Zakaria, N. H., Arora, R., Gupta, V. y Ali, M. (2022). Understanding public opinions on social media for financial sentiment analysis using AI-based techniques. Information Processing & Management, 59(6), 103098. https://doi.org/10.1016/j.ipm.2022.103098
Riaz, S., Fatima, M., Kamran, M. y Nisar, M. W. (2019). Opinion mining on large scale data using sentiment analysis and k-means clustering. Cluster Computing, 22(Suppl 3), 7149-7164. https://doi.org/10.1007/s10586-017-1077-z
Riley, C., Buckner, K., Johnson, G. y Benyon, D. (2009). Culture & biometrics: regional differences in the perception of biometric authentication technologies. AI & Society, 24(3), 295-306. https://doi.org/10.1007/s00146-009-0218-1
Sindermann, C., Sha, P., Zhou, M., Wernicke, J., Schmitt, H. S., Li, M., Sariyska, R., Stavrou, M., Becker, B. y Montag, C. (2021). Assessing the Attitude Towards Artificial Intelligence: Introduction of a Short Measure in German, Chinese, and English Language. KI-Künstliche Intelligenz, 35, 109-118. https://doi.org/10.1007/s13218-020-00689-0
Soler, J. M., Cuartero, F. y Roblizo, M. (2012). Twitter as a tool for predicting elections results. En 2012 IEEE/ACM International Conference on Advances in Social Networks Analysis and Mining (pp. 1194-1200). IEEE. https://doi.org/10.1109/ASONAM.2012.206
Stine, R. A. (2019). Sentiment analysis. Annual review of statistics and its application, 6, 287-308. https://doi.org/10.1146/annurev-statistics-030718-105242
Tan, S. y Zhang, J. (2008). An empirical study of sentiment analysis for chinese documents. Expert Systems with Applications, 34(4), 2622-2629. https://doi.org/10.1016/j.eswa.2007.05.028
Tong, R. M. (2001). An Operational System for Detecting and Tracking Opinions in On-Line Discussion. En Proceedings of SIGIR 2001 Workshop on Operational Text Classification. ABD.
Tsaih, R.-H. y Hsu, C. C. (2018). Artificial intelligence in smart tourism: a conceptual framework. En Proceedings of The 18th International Conference on Electronic Business (pp. 124-133). ICEB. https://iceb.johogo.com/proceedings/2018/ICEB2018_paper_84_full.pdf
Turney, P. D. (2002). Thumbs up or Thumbs down?: Semantic Orientation Applied to Unsupervised Classification of Reviews. En Proceedings of the 40th Annual Meeting on Association for Computational Linguistics (ACL '02) (pp. 417-424). Association for Computational Linguistics. https://doi.org/10.3115/1073083.1073153
Vasileios, H. y Janyce, M. W. (2000). Effects of Adjective Orientation and Gradability on Sentence Subjectivity. En Proceedings of the 18th conference on Computational linguistics - Volume 1 (COLING '00) (pp. 299-305). Association for Computational Linguistics. https://doi.org/10.3115/990820.990864
Williams, W., Parkes, E. L. y Davies, P. (2013). Wordle: A method for analysing MBA student induction experience. The International Journal of Management Education, 11(1), 44-53. https://doi.org/10.1016/j.ijme.2012.10.002
Wilson, T., Wiebe, J. y Hoffmann, P. (2005, October). Recognizing contextual polarity in phrase-level sentiment analysis. En Proceedings of the conference on Human Language Technology and Empirical Methods in Natural Language Processing (HLT '05) (pp. 347-354). Association for Computational Linguistics. https://doi.org/10.3115/1220575.1220619
Yaşa, H. (2022). Çevre(cilik) Hareketi Olarak Sosyal Medyada Sıfır Atık Hareketi. Selçuk Üniversitesi Sosyal Bilimler Enstitüsü Dergisi, 49, 212-230. https://doi.org/10.52642/susbed.1156189
Zhang, B. y Dafoe, A. (2019). Artificial Intelligence: American Attitudes and Trends. SSRN. https://doi.org/10.2139/ssrn.3312874
Hüseyin Yaşa
Independent Researcher
Completó 2 años de su educación de pregrado en la Universidad de Gaziantep, Facultad de Comunicación, Departamento de Periodismo, y los últimos 2 años de su educación de pregrado en la Universidad de Akdeniz, Facultad de Comunicación, Departamento de Periodismo en Antalya. Completó su maestría en Antalya, Universidad de Akdeniz, Instituto de Ciencias Sociales, Departamento de Periodismo en 2017. Actualmente, completó su formación de doctorado en Eskişehir, Universidad de Anadolu, Instituto de Ciencias Sociales, Departamento de Prensa y Radiodifusión y como becario YÖK 100/2000 de Estudios de Medios Sociales, TÜBİTAK 2211-A y continúa su investigación como investigador independiente. Sus intereses y temas académicos incluyen estudios sobre comunicación y medios sociales, nuevas tecnologías de la comunicación, medios digitales, nuevos medios, periodismo, semiótica, incitación al odio, género, personas influyentes y liderazgo de opinión.
Índice H: 5
Orcid ID: https://orcid.org/0000-0003-0589-0842
Google Scholar: https://scholar.google.com/citations?user=GTt1RDUAAAAJ&hl=tr
ResearchGate: https://www.researchgate.net/profile/Hueseyin-Yasa
Academia.edu: https://anadolu.academia.edu/H%C3%BCseyinYa%C5%9Fa
Aramburú Moncada, L. G., López Redondo, I., & López Hidalgo, A. (2023). Inteligencia artificial en RTVE al servicio de la España vacía. Proyecto de cobertura informativa con redacción automatizada para las elecciones municipales de 2023. Revista Latina de Comunicación Social, 81, 1-16. https://doi.org/10.4185/RLCS-2023-1550
Hueso Romero, J. J. (2022). Creación de una red neuronal artificial para predecir el comportamiento de las plataformas MOOC sobre la agenda 2030 y los objetivos para el desarrollo sostenible. Vivat Academia, 155, 61-89. https://doi.org/10.15178/va.2022.155.e1386
Neira-Placer, P., & Visiers, A. (2023). Los valores asociados a juguetes en los contenidos de canales YouTube: Estudio de caso. Revista de Comunicación de la SEECI, 57, 1-19. https://doi.org/10.15198/seeci.2024.57.e858
Pérez Altable, L., & Serrano-Tellería, A. (2021). Communications patterns and power dynamics in the digital public sphere: A case study of the conversation about Minimum Living Income on Twitter. European Public & Social Innovation Review, 6(1), 1-15. https://epsir.net/index.php/epsir/article/view/148
Pérez Ordóñez, C., & Castro-Martínez, A. (2023). Creadores de contenido especializado en salud en redes sociales. Los micro influencers en Instagram. Revista de Comunicación y Salud, 13, 23-38. https://doi.org/10.35669/rcys.2023.13.e311