Revista de Comunicación de la SEECI (2025). 

ISSN: 1576-3420 

 

 Recibido: 17/10/2024 --- Aceptado: 19/12/2024 --- Publicado: 30/05/2025

 

ANÁLISIS DE OPINIÓN EN VÍDEOS DE NOTICIAS SOBRE INTELIGENCIA ARTIFICIAL EN TURQUÍA: UN CASO DE YOUTUBE

 

SENTIMENT ANALYSIS OF NEWS VIDEOS ABOUT ARTIFICIAL INTELLIGENCE IN TURKEY: A YOUTUBE CASE

 

descarga Hüseyin Yaşa: Independent Researcher. Turquía.

hsynyasa@gmail.com

 

Cómo citar este artículo:

Yaşa, Hüseyin (2025). Análisis de opinión en vídeos de noticias sobre inteligencia artificial en Turquía: un caso de Youtube [Sentiment analysis of news videos about artificial intelligence in Turkey: A YouTube case]. Revista de Comunicación de la SEECI, 58, 1-22. https://doi.org/10.15198/seeci.2025.58.897 


RESUMEN

Introducción: El debate sobre el futuro de la Inteligencia Artificial (IA) se ha polarizado recientemente. Las diferencias de opinión positivas, negativas y neutras sobre la IA han llevado a la necesidad de profundizar en esta cuestión. En concreto, determinar el potencial de uso futuro de la IA mediante la identificación de los sentimientos y opiniones de los países al respecto se considera importante para desarrollar estrategias nacionales y regionales de IA. En este sentido, el objetivo de este estudio era determinar los estados de opinión de los turcos respecto a la IA. Para ello, se utilizó la plataforma de las redes sociales, ya que es una importante fuente de datos para determinar los sentimientos y opiniones de los individuos. Metodología: Se examinaron los comentarios de los usuarios en los posts publicados por los canales de noticias nacionales turcos en YouTube mediante el Análisis de Opinión (AO). En el método de AS aplicado, basado en diccionarios, los comentarios de los consumidores/seguidores se clasificaron en positivos, neutros y negativos en función de su puntuación de polaridad. Resultados: Los análisis indicaron que 697 (48,6%) de los comentarios de los usuarios eran positivos, 380 (26,5%) negativos y 357 (24,9%) neutros. Se concluyó que las opiniones de la sociedad turca hacia la IA eran generalmente positivas. Discusión y conclusiones: Los estados de opinión actuales de los usuarios de YouTube, con o sin conocimiento de la inteligencia artificial, pueden diferir en el futuro. Por lo tanto, podría considerarse predecible que, en el futuro, los usuarios más posicionados en estos procesos experimenten ciertos cambios en sus estados de opinión hacia temas concretos, de positivos a negativos, de negativos a positivos, o de estados de opinión neutros a positivos o negativos.

Palabras clave: Redes Sociales; Inteligencia Artificial; Usuario; Opiniones; Noticias; Análisis de Opinión; YouTube.

ABSTRACT

Introduction: Debate on the future of Artificial Intelligence (AI) has recently been polarized. Positive, negative, and neutral differences of opinion about AI have led to the need for further inquiry into this issue. In particular, establishing AI’s future potential of use by identifying the feelings and opinions of countries about AI is deemed significant for developing nationwide and regional AI strategies. In this regard, this study aimed to determine the emotional states of Turks toward AI. Social media platform was accordingly exploited since it is an important data source to determine individuals’ feelings and opinions. Methodology: User comments on the posts published by Turkish national news channels on YouTube were examined through Sentiment Analysis (SA). In the dictionary-based SA method implemented, consumer/follower comments were classified as positive, neutral, and negative according to their polarity scores. Results: Analyses indicated that 697 (48.6%) of user comments were positive, 380 (26.5%) were negative, and 357 (24.9%) were neutral. It was concluded that Turkish society’s feelings toward AI were generally positive. Discussion and Conclusions: YouTube users' current emotional states, with or without knowledge of artificial intelligence, may differ in the future. It might thus be viewed as predictable that in the future, users who are more positioned in these processes will experience certain shifts in their sentiment states toward specific issues, from positive to negative, from negative to positive, or from neutral sentimental states to positive or negative.

Keywords: Social Media; Artificial Intelligence; User; Opinions; News; Sentiment Analysis; YouTube.

1. INTRODUCCIÓN

McCarthy et al. (1955) definieron el concepto de IA como la ciencia y la ingeniería para crear máquinas inteligentes. En términos generales, la IA es la tecnología de inteligencia humana creada con la ayuda de programas informáticos (Tsaih y Hsu, 2018). La IA surgió entre 1950-1980, el aprendizaje automático entre 1980-2006 y el aprendizaje profundo entre 2006-2017. La IA tiene diferentes áreas de uso, como los sistemas que emulan el pensamiento y el comportamiento humano, los robots, los sistemas expertos, el procesamiento del lenguaje natural (PLN), el procesamiento de imágenes y el aprendizaje automático (Ercan, 2020). Es inevitable que la IA, creada a partir de la mente humana, exista en la vida humana, ya que facilita la vida. Sin embargo, los rápidos avances tecnológicos suscitan debates sobre si la IA planteará problemas a la humanidad en el futuro y si actuará en contra del control humano e independientemente de su sistema (Dilek, 2019). Las opiniones sociales negativas sobre la IA en la literatura se agruparon en desempleo (Frey y Osborne, 2017; Ghotbi et al., 2022; Lohr, 2017; Cheung et al., 2017), desigualdad (Bryson, 2019), ciberseguridad/violación ética (Pasquale, 2015; Jobin et al., 2019) y el miedo a que los robots controlen la sociedad (Ghotbi et al., 2022). Esto, a su vez, complica la evaluación de los posibles «beneficios» y «perjuicios» de la IA en el futuro y causa controversia (Ghotbi et al., 2022).

Desde una perspectiva social, para algunos la IA es la respuesta a todo, mientras que otros la consideran una amenaza importante (Pedersen y Johansen, 2020). Por ejemplo, algunos creen que la IA es un sistema que podría crear nuevas líneas de negocio (Borenstein, 2011), mientras que otros ven el desempleo como el mayor problema que la IA podría crear en la sociedad (Ghotbi et al., 2022; Lohr, 2017). Además, los científicos están divididos en dos polos opuestos de opiniones sobre el futuro de la IA. Mientras que distinguidos científicos como S. Hawking y E. Musk sostienen que la IA podría ser peligrosa en el futuro y condenar al fin de la humanidad, el fundador de Facebook, Mark Zuckerberg, y Cem Say afirman lo contrario (Efe, 2021). 

En los artículos de The New York Times titulados «Computers Learn to Listen, and Some Talk Back (Los ordenadores aprenden a escuchar y algunos responden)» (Lohr y Markoff, 2010) y «Study to Examine Effects of Artificial Intelligence (Estudio para examinar los efectos de la inteligencia artificial)» (Markoff, 2014) se defendían opiniones diferentes sobre el desarrollo de la IA en la sociedad. En consecuencia, el debate sobre el futuro de la IA está polarizado. Las diferencias de opinión positivas y negativas sobre la IA han creado, por tanto, la necesidad de seguir investigando esta cuestión y recientemente han dado lugar a más conversaciones sobre las relaciones entre la IA y la sociedad (Gezgin, 2023). Los estudios sobre la IA y la percepción pública son un nuevo tema de investigación que ha cobrado importancia recientemente (Diallo et al., 2021).

Benyon et al. (2005) afirman que la estructura social y la cultura influyen en la aceptación de la tecnología de IA. En este sentido, es esencial comprender las opiniones del público en general para facilitar la aceptación social de la IA y la experiencia positiva del usuario (Ju y Takayama, 2011), ya que, cuando se evalúa en el contexto actual, se desarrollan estrategias de IA nacionales y regionales en todo el mundo. Se emplean numerosas tecnologías que remodelan las emociones individuales, especialmente revelando algorítmicamente las emociones humanas (Fazzin, 2019). Además, comprender las opiniones públicas sobre la IA y su gestión es esencial para crear políticas informadas y dar forma a la educación del público sobre el carácter, los beneficios y los riesgos de la IA (Zhang y Dafoe, 2019). Sindermann et al. (2021) sostuvieron que la IA es un fenómeno global, destacando la importancia de investigar su aceptación en varios idiomas y culturas. Sin embargo, los estudios sobre las perspectivas sociales de la IA son escasos en la literatura (Riley et al., 2009; Kamppuri et al., 2006). 

En un estudio importante de la bibliografía sobre el tema de investigación, Bartneck et al. (2007) indagaron sobre las actitudes de las personas hacia los robots, y revelaron que, entre aproximadamente 500 participantes, los estadounidenses veían a los robots de forma positiva, mientras que los mexicanos los consideraban negativos. Ghotbi et al. (2022) examinaron los estados de opinión de 228 estudiantes universitarios (63 japoneses y 165 no japoneses) hacia la IA en una universidad internacional de Japón. La SA se realizó sobre textos de los estudiantes, revelando sentimientos generales positivos hacia la IA. En un estudio de Zhang y Dafoe (2019), se administró una encuesta a 2000 estadounidenses adultos para determinar sus actitudes y tendencias hacia la IA. Los resultados mostraron que los estadounidenses contrarios a la IA superaban en número a los estadounidenses favorables a la IA. En otro estudio, Fast y Horvitz (2017) analizaron los artículos de The New York Times publicados entre enero de 1986 y junio de 2016 para examinar cómo se reflejaban las percepciones públicas de la IA en la sociedad y cómo cambiaba la opinión reflejada con el tiempo. Los resultados indicaron que los artículos con contenido optimista sobre la IA superaron en número (aproximadamente tres veces) a los de contenido pesimista a lo largo de los treinta años. Sin embargo, destacaron un aumento de las noticias pesimistas y optimistas desde 2009. Riley et al. (2009) recogieron datos mediante una encuesta en India, Sudáfrica y Reino Unido para determinar las opiniones sobre los sistemas biométricos de reconocimiento facial, uno de los campos de estudio de la IA. Se observaron diferencias de opinión entre las distintas culturas. Mientras que los encuestados indios veían la biometría de forma positiva, los encuestados británicos tenían opiniones pesimistas. Ho et al. (2023) examinaron las percepciones de 245 visitantes de clínicas y hospitales de una región japonesa para medir la aceptación japonesa de las tecnologías de IA emocional, es decir, la tecnología de detección de opiniones. El estudio descubrió que los pacientes de mayor edad y de sexo masculino percibían la tecnología de IA emocional de forma más negativa. Del mismo modo, Johansson et al. (2024) llevaron a cabo un estudio para medir la percepción pública hacia el uso de la IA en la salud. El estudio pretendía explorar las percepciones y actitudes de las mujeres suecas hacia el uso de la IA en mamografías. La investigación reveló que percibían la IA como una herramienta valiosa en los procesos de toma de decisiones de los radiólogos, pero exigían y esperaban más de ellos. En otro estudio, Cohen et al. (2024) examinaron la percepción pública de ChatGPT, una tecnología de IA, en Twitter (denominada «X» desde julio de 2023). Su estudio reveló hallazgos específicos sobre preocupaciones éticas que podrían reflejar los aspectos funcionales y fundamentales de ChatGPT. En su estudio, Ko y Song (2024) utilizaron la metodología Q para examinar diversas percepciones de la ética de la IA entre 30 estudiantes de último curso de escuelas públicas de enseñanza media. La investigación dio como resultado cuatro clasificaciones (es decir, Guardianes de la Privacidad, Perseguidores de la Coexistencia de la IA, Conservadores de la Ética de la IA y Defensores de la Justicia Distributiva Interna), que reflejan las preocupaciones, actitudes hacia la IA y preferencias de valores de los estudiantes. La investigación también encontró consenso sobre la importancia de la dignidad humana y cierto desacuerdo sobre la distribución equilibrada de los beneficios económicos de la IA entre los países. Brauner et al. (2024) investigaron cómo percibían 122 participantes alemanes 38 afirmaciones sobre las tecnologías de IA en diversos contextos (personal, económico, industrial, social, cultural y sanitario). Su estudio indicó diferencias significativas entre las valoraciones percibidas y las expectativas. Además, dado que las tecnologías de IA siguen siendo, en muchos aspectos, una «caja negra», no se evaluaron adecuadamente ni las oportunidades ni los riesgos. Además, el estudio ofrecía importantes repercusiones para la promoción de la alfabetización en IA con el fin de facilitar la toma de decisiones en relación con las tecnologías de IA. 

Los estudios de Riley et al. (2009), Bartneck et al. (2007) y Zhang y Dafoe (2019) abordaron las perspectivas sociales sobre la IA y revelaron diferencias de opinión entre las sociedades. La variedad de perspectivas sobre la IA entre sociedades y culturas ha planteado la cuestión de qué punto de vista hacia la IA prevalece en el imaginario de la sociedad turca. En el marco de este estudio, se analizaron mediante SA los comentarios de los vídeos publicados por los canales nacionales de noticias sobre IA en YouTube para conocer mejor las percepciones de la sociedad turca sobre la IA. La investigación es importante porque es el primer estudio que muestra la tendencia intelectual de la sociedad turca hacia la IA, y los datos son comparables con los de otras regiones.

1.1. Análisis de Opinión

Las plataformas de medios sociales como Instagram, Facebook, Twitter y YouTube son las herramientas de comunicación más potentes que permiten a los usuarios comunicarse en todo el mundo (Kaur y Sharma, 2020). En el mundo actual, estas redes sociales y sitios de microblogging se han convertido en importantes medios de transmisión para que las personas expresen sus opiniones sobre temas, películas, vídeos o productos en línea. El motivo de la preferencia de YouTube como muestra de investigación fue que permite a los usuarios compartir con otros los vídeos que han producido u ofrece diversas oportunidades en línea como gustar, no gustar, comentar y ver vídeos de otros. Además, los comentarios de los usuarios realizados en un entorno cómodo y por iniciativa propia son fuentes de datos importantes para los investigadores. Para los directivos de la industria, conocer la opinión de los clientes sobre sus productos y servicios supone importantes pérdidas temporales y monetarias. Por lo tanto, los comentarios de los usuarios en las redes sociales son fuentes de datos importantes para proporcionar información sobre el comportamiento de los usuarios, la opinión sobre los productos, las opiniones de los usuarios y los estados de opinión. Los intentos de determinar las actitudes de las personas hacia un tema o acontecimiento concreto en las redes sociales han fascinado a los investigadores, sobre todo en la última década (Nausheen y Begum, 2018; Yaşa, 2022; Soler et al., 2012). Por este motivo, el AO se ha convertido en un importante campo de investigación desde 2002 (Palanisamy et al., 2013). Así pues, el AO podría ser valioso para múltiples cuestiones de interés para los profesionales e investigadores de la interacción persona-ordenador y los de sociología, marketing y publicidad, psicología, economía y ciencias políticas (Hutto y Gilbert, 2014). 

El AO es un campo de investigación novedoso que pretende revelar los sentimientos de las personas sobre una entidad utilizando la informática (Medhat et al., 2014). También se considera un campo de estudio dentro del ámbito de la minería de textos (Liu, 2012). Además, es un análisis que comprende una parte del PLN. Su objetivo principal es analizar todos los sentimientos presentes en los comentarios utilizando PLN (Hemmatian y Sohrabi, 2019). 

Los primeros estudios sobre AO (Vasileios y Janyce, 2000; Tong, 2001; Turney, 2002; Pang et al., 2002) empezaron con clasificaciones de sentimientos a nivel de documento en la década de 2000 (Tan y Zhang, 2008), continuaron con evaluaciones a nivel de frase (Qian et al., 2022; Nezhad y Deihimi, 2022; Li et al., 2022) y pasaron a evaluaciones a nivel de expresión (Wilson et al., 2005; Agarwal et al., 2009). Dado que el AO en el nivel de documento es muy débil, los investigadores se han inclinado hacia la investigación de AO en oraciones y expresiones (Hemmatian y Sohrabi, 2019).

El AO consta de dos pasos. Primero se determina la objetividad o subjetividad de una frase o expresión. A continuación, se determina su polaridad (es decir, positiva, negativa, neutra) (Liu y Zhang, 2012; Stine, 2019; Pawar et al., 2015). Las técnicas utilizadas en SA se dividen en dos categorías principales: método de aprendizaje automático (Riaz et al., 2017) y enfoque basado en diccionarios (Khan et al., 2017). En los métodos de AO basados en el aprendizaje automático, los clasificadores de aprendizaje automático se entrenan con un conjunto de datos cuyo polo de opinión está etiquetado, y se crea un modelo de clasificación para determinar el polo de opinión de las nuevas muestras. Los métodos de SA basados en diccionarios, por su parte, explotan un diccionario que contiene palabras de opinión (Onan et al., 2016; Onan y Korukoğlu, 2016). En el ámbito de este estudio, las expresiones se sometieron a un AO simple, y se siguió el siguiente diagrama de flujo mediante el enfoque basado en diccionarios. 

Figura 1.

Proceso de análisis de opinión

Fuente: Hemmatian y Sohrabi (2019).

Como se muestra en la Figura 1, el AO implica diferentes pasos. Tras los pasos de preprocesamiento, los sentimientos extraídos se agrupan en polos mediante algoritmos basados en el método del diccionario (Hemmatian y Sohrabi, 2019). Los algoritmos Linguistic Inquiry and Word Count (LIWC), General Inquirer (GI) y Hu-Liu04 se emplean como tres tipos de diccionario en el AO basado en diccionario al dividirse en clases binarias (es decir, positivas o negativas) según sus orientaciones semánticas independientes. Otros tres algoritmos de diccionario en los que las palabras se asocian con puntuaciones de valencia relacionadas con la intensidad emocional son Affective Norms for English Words (ANEW), SentiWordNet y SenticNet (Hutto y Gilbert, 2014). También se utilizan muchos algoritmos, como Naive Bayes y Valence Aware Dictionary for Sentiment Reasoning (VADER). Hutto y Gilbert (2014) desarrollaron VADER, un modelo simple basado en reglas para AO, y lo compararon con algoritmos de aprendizaje automático (por ejemplo, LIWC, Naive Bayes (NB), regresión de vectores de soporte (SWM-R), clasificación de máquinas de vectores de soporte (SWR-C), máxima entropía (ME) y algoritmos basados en diccionarios (por ejemplo, LIWC, GI, Hu-Liu04, ANEW, SentiWordNet y SenticNet). Sus resultados revelaron que VADER era el algoritmo con mejor rendimiento en la evaluación de opiniones en textos de redes sociales, con una precisión de clasificación de 0,96 y 0,84.

2. MATERIALES Y MÉTODO

Mediante el uso del AO, este estudio evaluó los comentarios de los usuarios en los vídeos sobre IA compartidos por los canales de noticias nacionales de Turquía en YouTube, una de las plataformas de medios sociales. Esta sección incluye el conjunto de datos, la recopilación de datos, el preprocesamiento y el rendimiento del AO.

2.1. Instrumentos y Bibliotecas

Se utilizó Google Colab como entorno de desarrollo y Python como lenguaje de software. Desarrollado por Guido Van Rossum a principios de la década de 1990, se prefirió Python por su facilidad de uso y sus completas bibliotecas para el aprendizaje automático, el análisis y el procesamiento de datos (Dierbach, 2012). También conocido como “Colaboratory”, Google Colab es un entorno de programación que permite escribir y ejecutar Python sin necesidad de configuración a través del navegador, con acceso gratuito a GPU y fácil uso compartido (Google Colab, 2023). Se empleó el programa de análisis de datos cualitativos MAXQDA para crear nubes de palabras.

En el estudio se emplearon bibliotecas como pandas, numPy, nltk, demoji y matplotlib.

2.2. Conjunto de Datos

El estudio incluyó un análisis de los comentarios turcos en los canales nacionales de noticias sobre IA en YouTube. El conjunto de datos obtenido se basó en los comentarios de los usuarios (excluidos los realizados entre usuarios) en YouTube el 05 de septiembre de 2023, en línea con los comentarios turcos sobre vídeos relacionados con la IA de los canales de noticias nacionales en Turquía. 

En este estudio se incluyó una muestra de comentarios de usuarios en vídeos de noticias sobre «IA» de canales de noticias nacionales de Turquía porque los vídeos estaban directamente relacionados con el tema de la investigación y tenían un elevado número de «me gusta», «no me gusta», visualizaciones y comentarios. Por lo tanto, el elevado número de «me gusta», «no me gusta», visualizaciones y comentarios en comparación con otros vídeos de noticias sobre IA amplía aún más el impacto de la investigación y aumenta la intensidad de la interacción de los usuarios.

En los vídeos de noticias sobre IA, sólo se tomaron como base los comentarios principales porque cualquier usuario que comente por debajo de un comentarista principal puede crear un entorno de debate si contesta al comentarista principal y cambiar la percepción y la actitud de éste hacia la tecnología de IA. Esta situación también puede afectar al Análisis de opinión en puntos concretos. Por lo tanto, el estudio se basa únicamente en los comentarios de los principales usuarios en los vídeos de noticias en línea. En la Tabla 1 se presentan los canales de noticias nacionales que forman el conjunto de datos y el número de comentarios principales de los usuarios turcos en estos canales.

Tabla 1.

Títulos de noticias, URL, número de comentarios y canales de noticias en YouTube

Títulos y URL de las noticias

Número de Comentarios

Canales de Noticias

Yapay zekâ insanlığın yerini mi alacak? Ertan Özyiğit ile Kayıt Dışı - 19 Mart 2021 [¿Sustituirá la inteligencia artificial a la humanidad? En exclusiva con Ertan Özyiğit - 19 de marzo de 2021]

URL: https://www.youtube.com/watch?v=Fh9w8JQd1NQ&t=5s 

263

TV100

ChatGPT programı ne kadar “Zeki”? | Teke Tek Bilim - 23 Ocak 2023 [¿ Cuán «inteligente» es el programa ChatGPT ? | Head to Head Science – 23 de enero de 2023]

URL: https://www.youtube.com/watch?v=q2f7hrelqtc&t=9s 

248

HabertürkTV

 

Robot öfkelendi, insana müdahale etti! [¡El robot se puso furioso y respondió al humano!!]

URL: https://www.youtube.com/watch?v=1F90g2l-YEo 

181

TV100

Abdullah Çiftçi: “Türkler yapay zekâ alanında dünyada ilk 5'te” [Abdullah Çiftçi: “Los turcos están entre los 5 primeros del mundo en inteligencia artificial.”]

URL: https://www.youtube.com/watch?v=sK_GQ1vEb3g 

163

CNN TÜRK

Bilim Kurgu Filmlerini Aratmayan Olay: Yapay Zekâ Komutanını Öldürdü [Un incidente propio de una película de ciencia ficción: la inteligencia artificial mató a su operador humano.] - TGRT Haber

URL: https://www.youtube.com/watch?v=bgzOsgurUVw&t=6s 

134

TGRT Haber TV

Yapay Zekâ Kafesinden Kaçtı | Aralarında Güç Savaşı Başlayabilir! [La Inteligencia Artificial Escapó de su Jaula | ¡Se Puede Desatar una Lucha de Poder!]

URL: https://www.youtube.com/watch?v=ugo93hxDtAg 

100

Haber Global

Google’ın Elini Ayağını Dolandıran Olay! Yapay Zekâ İddiası Gündemi Sarstı [¡El Incidente que No Sorprendió a Google! ¡ Las Reclamaciones de la Inteligencia Artificial Sacudieron la Agenda!]

URL: https://www.youtube.com/watch?v=Hn2nVzRJG0Y&t=6s 

69

Haber Global

 

Yapay zekâ kendini nasıl geliştiriyor? | Teke Tek Bilim - 5 Eylül 2021 [¿Cómo Se Mejora La Inteligencia Artificial a Sí Misma? | Head to Head Science - 5 de septiembre de 2021]

URL: https://www.youtube.com/watch?v=_r6ADEVhuCs&t=1443s 

66

HabertürkTV

 

Yapay Zekâ Tehdit Mi Fayda Mı? | Yapay Zekânın Karanlık Yüzü | 22.07.2023 Sıra Dışı Gündem [¿Es La Inteligencia Artificial Amiga o Enemiga? | El Lado Oscuro de la Inteligencia Artificial.| 22 de julio de 2023 Extraordinary Agenda]

URL: https://www.youtube.com/watch?v=TBLpwKxf4Gw&t=2s 

53

 

Haber Global

Ürküten Görüntüler! “Yapay Zekâ İnsanlığı Ele Geçirecek” [¡Imágenes Aterradoras! “La Inteligencia Artificial se Apoderará de la Humanidad”]

URL: https://www.youtube.com/watch?v=Uf5-qWlcX0s 

45

Haber Global

 

13 yıllık yuvada '“Yapay zekâ'“ çatlağı! [“Inteligencia Artificial” ¡Resquebrajamiento en La Casa de 13 Años!]

URL: https://www.youtube.com/watch?v=bhO6-R_xMTU&t=9s 

37

Show Ana Haber

Erdoğan'ın sesini yapay zekâ ile taklit etti [Imitó la voz de Erdoğan usando Inteligencia Artificial.]

URL: https://www.youtube.com/watch?v=p3hlz2Zt5q8 

36

Show Ana Haber

Yapay Zekâ Canlandı mı? Google Ne Yapacağını Şaşırdı! [¿Se Revitaliza la Inteligencia Artificial? ¡Google Pierde el Rumbo!]

URL: https://www.youtube.com/watch?v=kuJitAxVYf0&t=4s 

30

Haber Global

 

Yapay zekâ insan beynini hantallaştırıyor mu? | Teke Tek Bilim [¿La Inteligencia Artificial Entorpece el Funcionamiento del Cerebro Humano?? | Head to Head Science]

URL: https://www.youtube.com/watch?v=h0uIuNnDnjI&t=4s 

30

HabertürkTV

 

Teke Tek Bilim'de yapay zekâ teknolojileri konuşuluyor... [Las Tecnologías de Inteligencia Artificial se Tratan en Head to Head Science...]

URL: https://www.youtube.com/watch?v=1R2XHcOXq9o 

28

HabertürkTV

Fuente: Elaboración propia.

2.3. Preprocesamiento con Minería de Textos

Se puede acceder fácil y rápidamente al conjunto de datos sobre un tema de investigación a través de las plataformas de medios sociales. Sin embargo, al utilizar estos entornos para expresar opiniones sobre un tema concreto, los errores ortográficos cometidos por los usuarios y algunas oportunidades que brindan estas plataformas, como los emojis, las menciones a otras personas o las referencias (hashtags), requieren algunas medidas antes de obtener los resultados de la investigación. Para que el modelo de clasificación utilizado en el estudio ofrezca resultados precisos, a continuación, se presentan los procedimientos aplicados a todas las acciones del conjunto de datos obtenidos mediante el programa de análisis de datos cualitativos MAXQDA:

Figura 2.

Preprocesamiento del conjunto de datos

Fuente: Elaboración propia.

2.4. Creación del Modelo de Análisis de Opinión

La etapa de preprocesamiento se aplicó principalmente al conjunto de datos obtenidos mediante el programa MAXQDA. En esta etapa, se aplicó inicialmente la «tokenización», se dividieron los textos en palabras y se eliminaron sufijos específicos. En el proceso de «transformación» posterior, el conjunto de datos turcos se tradujo al inglés y las letras mayúsculas se convirtieron en minúsculas. En la tercera etapa, «filtrado», se filtraron los hashtags (#) y las palabras que empezaban por, como nombres de usuario, URL, expresiones faciales utilizadas para expresar emociones (emojis), expresiones numéricas, signos de puntuación y algunas palabras que podrían no afectar al AO. Por último, tras el paso de preprocesamiento de datos, se eliminaron las líneas en blanco del conjunto de datos. 

Figura 3. 

Modelo de Análisis de Opinión

metin, ekran görüntüsü, yazı tipi, logo içeren bir resim

Açıklama otomatik olarak oluşturuldu

Fuente: Tarakcı (2023).

Tras el preprocesamiento de los datos, el AO se llevó a cabo con el procesamiento del lenguaje «Valence Aware Dictionary for Sentiment Reasoner (VADER (Diccionario consciente de la valencia para el razonamiento del sentimiento)», una de las bibliotecas más populares de PNL. Se prefirió VADER porque el idioma de los datos procesados es el inglés, y es una herramienta de AO basada en palabras y reglas que se adapta a los sentimientos expresados en entornos de medios sociales. También tiene en cuenta las variables de orden y grado de las palabras (Chauhan et al., 2018). Se utilizaron puntuaciones específicas recomendadas para clasificar las opiniones a través del instrumento Vader de AO, propuesto por Hutto ve Gilbert en 2014. Se prefirieron palabras predefinidas para intensidades sentimentales positivas, negativas y neutras. Las palabras se emparejan con puntuaciones que expresan la intensidad sentimental. La intensidad sentimental de los datos se calcula sumando las puntuaciones de cada palabra de los datos. En la lista de palabras, a las características se les asignan valores entre [-4, +4] que indican la polaridad y la intensidad del sentir. En el siguiente paso, se recogen los valores de cada palabra del diccionario y se ajustan de acuerdo con las reglas y, por último, se calcula una puntuación combinada en el intervalo [-1, +1]. Los valores de umbral específicos utilizados en este estudio para clasificar los comentarios de los usuarios de YouTube como positivos, negativos o neutros mediante VADER son los siguientes: «𝐹𝑝𝑖 = positivo 𝑣𝑠 >= 0,05 / negativo 𝑣𝑠 <= -0,05 / neutro en otros casos» (Hutto y Gilbert, 2014; Aslan, 2023). En función de los valores, el valor compuesto obtenido tras el AO se clasifica como positivo si es mayor o igual que [+,05], negativo si es menor o igual que [-,05] y neutro si es entre [+,05]. y [-,05]. Los resultados del AO se presentan en la sección de conclusiones.

3. CONCLUSIONES

Tras el preprocesamiento del conjunto de datos compuesto por 1483 comentarios de usuarios obtenidos de YouTube, se determinó que 1434 comentarios eran adecuados para el AO. Los comentarios del conjunto de datos resultante se clasificaron en tres clases de opiniones: positiva, negativa y neutra. En la Tabla 1 se muestran las distribuciones numéricas y porcentuales de los datos en relación con las clasificaciones de las opiniones.

Figura 4. 

Estados de Opinión de las Publicaciones


Fuente: Elaboración propia.

En la Figura 4 se muestra el AO de los comentarios de los usuarios sobre los vídeos relacionados con la IA de los canales de noticias nacionales turcos. El examen tabular en el marco de la clasificación Vader basada en diccionarios reveló los siguientes porcentajes: comentarios positivos (48,6%), comentarios negativos (26,5%) y comentarios neutros (24,9%). Además, 697 de los 1.434 comentarios de los usuarios en 15 vídeos sobre IA en canales de noticias nacionales eran positivos, 380 eran negativos y 357 tenían sentimientos neutros. En consecuencia, los resultados indicaron que los estados de opinión de los usuarios eran predominantemente positivos, con formas de opinar negativas y neutras casi iguales o cercanas entre sí.

Tabla 2.

Ejemplos de comentarios de usuarios sobre noticias, puntuaciones y etiquetas

Comentarios de los Usuarios

Puntuación de AO

Etiquetas

¡Esto es increíble! Da respuestas lógicas sin importar lo que preguntes.

{'neg': 0.0, 'neu': 0.594, 'pos': 0.406, 'compound': 0.6249}

Positivo

La inteligencia humana se detuvo en un lugar. Es la IA la que permitirá a la humanidad progresar.

{'neg': 0.109, 'neu': 0.229, 'pos': 0.663, 'compound': 0.8658}

Positivo

Los soldados robot son obligatorios ahora. Los robots lucharán en el cuartel general en lugar de jóvenes soldados.

{'neg': 0.0, 'neu': 0.492, 'pos': 0.508, 'compound': 0.4767}

Positivo

No hay ningún problema entre las personas y los códigos.

{'neg': 0.104, 'neu': 0.578, 'pos': 0.319, 'compound': 0.9756}

Positivo

La IA sirve a la humanidad.

{'neg': 0.0, 'neu': 0.648, 'pos': 0.352, 'compound': 0.6632}

Positivo

La IA será racista. Eso es seguro.

{'neg': 0.396, 'neu': 0.297, 'pos': 0.307, 'compound': -0.2263}

Negativo

La IA no hace más que la gente sea perezosa.

{'neg': 0.677, 'neu': 0.323, 'pos': 0.0, 'compound': -0.2732}

Negativo

Si la IA supera a su creador, será la perdición de la humanidad.

{'neg': 0.396, 'neu': 0.321, 'pos': 0.283, 'compound': -0.2741}

Negativo

La gente estará desempleada debido a estos robots.

{‘neg’: 1.0, ‘neu’: 0.0, ‘pos’: 0.0, ‘compound’: -0.4019}

Negativo

Es un peligro tanto para la humanidad como para todos los seres vivos. No tienen compasión.

{'neg': 0.279, 'neu': 0.45, 'pos': 0.27, 'compound': -0.0258}

Negativo

Aquí está el futuro para ti.

{'neg': 0.0, 'neu': 1.0, 'pos': 0.0, 'compound': 0.0}

Neutral

Como humano.

{'neg': 0.0, 'neu': 1.0, 'pos': 0.0, 'compound': 0.0}

Neutral

¡De ningún modo!

{'neg': 0.0, 'neu': 1.0, 'pos': 0.0, 'compound': 0.0}

Neutral

Todo es simplemente software.

{'neg': 0.0, 'neu': 1.0, 'pos': 0.0, 'compound': 0.0}

Neutral

Esto es ultra realista.

{'neg': 0.0, 'neu': 1.0, 'pos': 0.0, 'compound': 0.0}

Neutral

Fuente: Elaboración propia.

La Tabla 2 muestra los comentarios de los usuarios, las puntuaciones de AO y las etiquetas de los vídeos de noticias de YouTube sobre IA. A partir de los comentarios de muestra de los usuarios, a los comentarios que no indican ningún estado de sentimientos o que contienen mayoritariamente expresiones interrogativas se les asignó una etiqueta neutra que especificaba la puntuación de polaridad como «0». Se crearon otras puntuaciones a las que se asignaron distintos valores tras calcular las palabras de las frases positivas o negativas.

Figura 5. 

Nube de palabras de los comentarios de noticias

metin, yazı tipi, ekran görüntüsü, tasarım içeren bir resim

Açıklama otomatik olarak oluşturuldu

Fuente: Elaboración propia.

Las nubes de palabras permiten interpretar las palabras más utilizadas en un conjunto de datos de investigación en un contexto específico y visualizar y presentar los temas en función de los resultados (Williams et al., 2013). Se creó una nube visual de palabras a partir de los comentarios de los usuarios sobre los vídeos de canales nacionales en YouTube relacionados con la IA. Como se ve en la Figura 5, las palabras de los comentarios de los usuarios se modelaron visualmente según su tamaño y color. Mientras que las palabras más utilizadas en la nube tienen formas oscuras y grandes, las que tienen formas claras y pequeñas se refieren a una frecuencia reducida (Yaşa, 2022). 

En este contexto, una interpretación mediante figuras indica que la palabra más frecuente fue en inglés «intelligence» (inteligencia), seguida de «artificial, people, world, program, human, god, robot, teacher, time» (artificial, gente, mundo, programa, humano, dios, robot, profesor, tiempo). Las frecuencias y porcentajes de estas palabras figuran en la tabla siguiente. En función de las palabras más repetidas, las opiniones de los usuarios sobre la IA se centraron en tres temas principales: 1) definición y características de la IA (por ejemplo, inteligencia artificial), 2) efectos de la IA en los individuos y la sociedad (por ejemplo, gente, mundo, humano y dios), 3) efectos funcionales y tecnológicos de la IA (por ejemplo, robot, programa, profesor y tiempo). Estos temas indican cómo los individuos perciben la IA y la abordan desde diferentes perspectivas.

Tabla 3.

Las 10 palabras con mayor frecuencia y porcentaje en los comentarios de las noticias

Número total de palabras =17 434 

Frecuencia

%

Inteligencia

311

1,78

Artificial

297

1,70

Personas

228

1,31

Mundo

109

0,63

Programa

105

0,60

Humano

94

0,54

Dios

92

0,53

Robot

83

0,48

Profesor

77

0,44

Tiempo

77

0,44

Fuente: Elaboración propia.

El número total de palabras en los comentarios de los usuarios sobre el tema fue de 17.434. Un examen detallado de las frecuencias y porcentajes de las palabras más frecuentes en los comentarios de los usuarios sobre los vídeos de YouTube arrojó las siguientes estadísticas sobre las 10 palabras en inglés más frecuentes: «inteligencia» n=311 (1,18%), «artificial» n=297 (1,70%), «gente» n=228 (1,31%), «mundo» n=109 (0,63%), «programa» n=105 (0,60%), «humano» n=94 (0,54%), «dios» n=92 (0,53%), «robot» n=83 (0,48%), y “profesor” y «tiempo» n=77 (0,44%). Dado que el tema de la investigación era la IA, era de esperar que la palabra más frecuente fuera «inteligencia», pero otras palabras también apoyan el tema de la investigación. Además, el hecho de que las personas expresaran sus opiniones sobre la IA con palabras como «human (humano)» y «god (dios)» refleja un estado de conciencia particular con respecto a las dimensiones religiosas y éticas de la IA y sus efectos en las personas. En este punto, la posibilidad de que la IA sea percibida como «dios» por los individuos o de que la IA tenga características individuales sugiere la incertidumbre de los límites de las relaciones entre humanos y máquinas. Además, palabras repetitivas como «robot» y «programa» podrían enfatizar las percepciones de los individuos sobre la tecnología y sus opiniones sobre la IA. Por lo tanto, podemos concluir que los individuos expresaron sus opiniones teniendo en cuenta la información técnica en sus percepciones de la IA y los valores sociales y éticos positivos o negativos con respecto a la humanidad.

Tabla 4.

Frecuencia y porcentajes de las 10 palabras más negativas en los comentarios sobre Inteligencia Artificial

Número total de palabras =17 434

Frecuencia

%

No se puede

56

0,32

Atención

27

0,15

Miedo

26

0,15

Malo

26

0,15

Mal

21

0,12

Destruir

20

0,11

Peligroso

16

0,09

Matar

16

0,09

Falso

15

0,09

Problema

13

0,07

Fuente: Elaboración propia.

La distribución de frecuencias y porcentajes de las palabras negativas más utilizadas en los comentarios de los usuarios sobre los vídeos de YouTube demostró que «no se puede» se utilizó n=56 (0,03%) veces. Por el contrario, las otras tres palabras (n=27 atención, n=26 miedo, n=26 mal) fueron iguales (0,15%) en el grupo de palabras negativas, y la palabra «mal» se utilizó n=21 (0,12%). Además, la palabra «destruir», que figura entre los diez primeros grupos de palabras negativas, apareció en las opiniones de los usuarios n=20 veces (0,11%), mientras que las otras dos palabras (peligroso, matar) aparecieron en el grupo de palabras negativas n=16 veces con una tasa igual (0,09%). El análisis de las otras diez palabras negativas principales reveló que «falso» se utilizó n=15 (0,15%) y «problema» n=228 (1,31%) veces. El grupo de palabras negativas informa de que los usuarios se quejan de problemas relacionados con la IA. Las palabras «atención», “miedo” y «malo», que aparecen por igual en las declaraciones de los usuarios, indican sentimientos negativos hacia la IA. Además, basándose en los diez primeros grupos de palabras y en los demás grupos de palabras negativas, los usuarios también mencionaron que podrían producirse diversos problemas de seguridad señalando que las tecnologías de IA pueden ser erróneas, destructivas y preocupantes en sus vidas en las frases formadas por estas palabras negativas. Además, los usuarios expresaron la opinión negativa de que algunas profesiones podrían desaparecer debido a las tecnologías de IA, lo que provocaría desempleo, amenazas para los seres vivos, problemas de seguridad en zonas militares y la adquisición de conocimientos y habilidades como ocurre con las personas.

4. DEBATE Y CONCLUSION

La tecnología de la IA influye en la vida de las personas y las sociedades de diferentes maneras. Por lo tanto, suscita debates sobre si mejorará o empeorará la vida humana en el futuro. Las diferencias de opinión hacen necesaria la investigación sobre la IA y las percepciones del público. En este contexto, es esencial comprender la opinión pública para interpretar la aceptación social de la IA. Dado que en el ámbito del estudio realizamos una encuesta de opinión (negativa/positiva/neutral) sobre la sociedad turca, sus estados de opinión sobre el tema podrían considerarse un fiel reflejo de la posibilidad de utilizar la IA en el futuro. En este punto surge el principal objetivo del estudio. Mediante el método de muestreo intencionado, este estudio incluyó comentarios de usuarios en programas de noticias o debates en YouTube de canales nacionales turcos para determinar sus estados de opinión respecto a las tecnologías de IA.

El AO demostró que 697 (48,6%) de los comentarios de los usuarios en vídeos sobre IA en los canales de noticias nacionales de Turquía fueron positivos, 380 (26,5%) fueron negativos y 357 (24,9%) fueron neutrales. Según los resultados, la proximidad entre los estados de opinión negativos y neutrales fomenta la posibilidad de que los usuarios tengan una percepción generalmente positiva de la IA. «Inteligencia» fue la palabra más frecuente, seguida de «artificial, gente, mundo, programa, humano, dios, robot, maestro, tiempo». Este estudio reveló que las palabras y los temas que se repiten con más frecuencia en los comentarios de los usuarios sobre la IA podrían evaluarse en el ámbito de los temas relacionados con la IA, orientando a los futuros investigadores interesados en el tema. Por tanto, gracias a estas palabras, los investigadores pueden comparar los resultados de sus estudios o ampliar sus investigaciones basándose en ellas. Al mismo tiempo, la creación de temas específicos en la investigación basados en las palabras más repetidas por los usuarios servirá de guía a los usuarios que realicen investigaciones en el futuro. Lo mismo ocurre con los estados de opinión de los usuarios obtenidos como resultado del análisis de opiniones. Así, los datos obtenidos en el contexto de Turquía también proporcionarán datos para inevitables comparaciones a nivel de distintos países.

Acomodar la tecnología de la IA, producto de las nuevas tecnologías de la información y la comunicación a nivel mundial, no ocurrirá de improviso para los individuos y las sociedades. Como se desprende del conjunto de datos, se plantearon interrogantes específicos en las opiniones y pensamientos de los usuarios de YouTube en el marco de su actitud neutral hacia la IA. Los usuarios con poca o ninguna información sobre la IA podrían adquirir más conocimientos si participaran en este tipo de procesos en el futuro. Los estados de opinión actuales sobre un tema concreto pueden diferir de los futuros. Por tanto, podría considerarse predecible que, en el futuro, los usuarios más posicionados en estos procesos experimenten ciertos cambios en sus estados de opinión hacia temas concretos, de positivos a negativos, de negativos a positivos, o de estados de opinión neutros a positivos o negativos. Los resultados del estudio servirán, por lo tanto, como fuente para futuros investigadores, a los que proporcionarán un importante apoyo y abrirán nuevas áreas de debate para sus investigaciones.

Como toda investigación, esta se llevó a cabo con ciertas limitaciones. El estudio incluyó comentarios de usuarios en el marco de programas informativos o de debate en YouTube, uno de los entornos de medios sociales de las cadenas nacionales en Turquía. Por lo tanto, la principal limitación de este estudio fue su análisis únicamente de la plataforma YouTube y de los comentarios de los usuarios en línea sobre quince vídeos populares de IA. La investigación se basa en los comentarios más destacados en la plataforma YouTube el 05 de septiembre de 2023. Por tanto, se excluyeron los comentarios posteriores a esta fecha. Otra limitación fue el uso del algoritmo VADER.

Como resultado, las aplicaciones de la IA se han convertido en uno de los temas de investigación más importantes a nivel local y mundial. Explorar las percepciones y actitudes de los países sobre la IA y su potencial de uso futuro es crucial para desarrollar estrategias nacionales y regionales de IA. La aceptación de la IA, un fenómeno global, podría investigarse en varios idiomas y culturas. Se recomienda a los futuros investigadores que aumenten la diversidad y el tamaño del conjunto de datos sobre el mismo tema y lleven a cabo el AO con diferentes algoritmos de clasificación basados en el aprendizaje profundo. Además, los datos obtenidos de diferentes entornos de medios sociales pueden utilizarse para clasificar las emociones de forma comparativa. Al realizar análisis de contenido sobre los datos, se pueden llevar a cabo nuevos estudios descriptivos dentro de temas específicos. El método de la netnografía puede proporcionar abundantes datos sobre las percepciones y actitudes de los usuarios en línea hacia las tecnologías de IA en diversos entornos de medios sociales. Además, se pueden descubrir interacciones relevantes mediante la realización de análisis de redes sociales con datos de distintos entornos de medios sociales.

5. REFERENCIAS

Agarwal, A., Biadsy, F. y Mckeown, K. (2009). Contextual phrase-level polarity analysis using lexical affect scoring and syntactic n-grams. En Proceedings of the 12th Conference of the European Chapter of the Association for Computational Linguistics (EACL '09) (pp. 24-32). Association for Computational Linguistics. https://doi.org/10.3115/1609067.1609069


Aslan, S. (2023). Doğal dil işleme teknikleri kullanarak e-ticaret kullanıcı incelemelerinde özellik tabanlı duygu analizi. Fırat Üniversitesi Mühendislik Bilimleri Dergisi, 35(2), 875-882. https://doi.org/10.35234/fumbd.1335583


Bartneck, C., Suzuki, T., Kanda, T. y Nomura, T. (2007). The influence of people's culture and prior experiences with Aibo on their attitude towards robots. Ai & Society, 21, 217-230. https://doi.org/10.1007/s00146-006-0052-7


Benyon, D., Turner, P. y Turner S. (2005). Designing interactive systems. Pearson Education.


Borenstein, J. (2011). Robots and the changing workforce. AI & Society, 26, 87-93. https://doi.org/10.1007/s00146-009-0227-0


Brauner, P., Hick, A., Philipsen, R. y Ziefle, M. (2023). What does the public think about artificial intelligence?—A criticality map to understand bias in the public perception of AI. Frontiers in Computer Science, 5. https://doi.org/10.3389/fcomp.2023.1113903


Bryson, J. J. (2019). The past decade and future of AI's impact on society. En M. Baddeley (Ed.), Towards a new enlightenment? A transcendent decade (Vol. 11). Turner. https://www.bbvaopenmind.com/wp-content/uploads/2019/02/BBVA-OpenMind-Joanna-J-Bryson-The-Past-Decade-and-Future-of-AI-Impact-on-Society.pdf


Chauhan, V. K., Bansal, A. y Goel, D. A. (2018). Twitter sentiment analysis using vader. International Journal of Advance Research, Ideas and Innovations in Technology (IJARIIT), 4(1), 485-489. https://www.ijariit.com/manuscripts/v4i1/V4I1-1307.pdf 


Cheung, C. W., Tsang I. T. y Wong, K. H. (2017). Robot Avatar: A Virtual Tourism Robot for People with Disabilities. International Journal of Computer Theory and Engineering, Singapore, 9(3), 229-234. https://doi.org/10.7763/IJCTE.2017.V9.1143


Cohen, M., Khavkin, M., Movsowitz Davidow, D. y Toch, E. (2024). ChatGPT in the public eye: Ethical principles and generative concerns in social media discussions. New Media & Society. https://doi.org/10.1177/14614448241279034


Diallo, S. Y., Shults, F. L. y Wildman, W. J. (2021). Minding morality: ethical artificial societies for public policy modeling. AI & society, 36(1), 49-57. https://doi.org/10.1007/s00146-020-01028-5


Dierbach, C. (2012). Introduction to computer science using python: A computational problem-solving focus. Wiley Publishing.


Dilek, Ö. G. (2019). Yapay zekanın etik gerçekliği. Ankara Uluslararası Sosyal Bilimler Dergisi, 2(4), 47-59. https://dergipark.org.tr/tr/pub/usdad/issue/51335/642184


Efe, A. (2021). Yapay Zekâ Risklerinin Etik Yönünden Değerlendirilmesi. Bilgi ve İletişim Teknolojileri Dergisi, 3(1), 1-24. https://dergipark.org.tr/tr/pub/bited/issue/63346/859894


Ercan, F. (2020). Turizm pazarlamasında yapay zekâ teknolojilerinin kullanımı ve uygulama örnekleri. Ankara Hacı Bayram Veli Üniversitesi Turizm Fakültesi Dergisi, 23(2), 394-410. https://doi.org/10.34189/tfd.23.02.009


Fast, E. y Horvitz, E. (2017, February). Long-Term Trends in the Public Perception of Artificial Intelligence. Proceedings of the AAAI Conference on Artificial Intelligence, 31(1). https://doi.org/10.1609/aaai.v31i1.10635


Fazzin, S. (2019) The Future of Emotions in the Workplace: The Role of Artificial Intelligence in Modern Personnel Management. En Emotion-Based Approaches to Personnel Management: Emerging Research and Opportunities. IGI Global. https://doi.org/10.4018/978-1-5225-8398-1.ch009


Frey, C. B. y Osborne, M. A. (2017). The future of employment: How susceptible are jobs to computerisation?. Technological Forecasting and Social Change, 114, 254-280. https://doi.org/10.1016/j.techfore.2016.08.019


Gezgin, U. B. (2023). Yapay Zeka ve Toplum: Yapay Zeka Sosyolojisiyle Eleştirel Bir Bakış. In Yapay Zeka Psikolojisi ve Sosyolojisi (pp. 7-26). Serüven. https://hdl.handle.net/20.500.12941/182


Ghotbi, N., Ho, M. T. y Mantello, P. (2022). Attitude of college students towards ethical issues of artificial intelligence in an international university in Japan. AI & Society, 37, 283-290. https://doi.org/10.1007/s00146-021-01168-2


Google Colab. (s.f.). Te damos la bienvenida a Colab. https://colab.research.google.com/


Hemmatian, F. y Sohrabi, M. K. (2019). A survey on classification techniques for opinion mining and sentiment analysis. Artificial Intelligence Review, 52, 1495-1545. https://doi.org/10.1007/s10462-017-9599-6


Ho, M. T., Le, N. T. B., Mantello, P., Ho, M. T. y Ghotbi, N. (2023). Understanding the acceptance of emotional artificial intelligence in Japanese healthcare system: A cross-sectional survey of clinic visitors’ attitude. Technology in Society, 72, 102166. https://doi.org/10.1016/j.techsoc.2022.102166


Hutto, C. y Gilbert, E. (2014). VADER: A Parsimonious Rule-Based Model for Sentiment Analysis of Social Media Text. Proceedings of the International AAAI Conference on Web and Social Media, 8(1), 216-225. https://doi.org/10.1609/icwsm.v8i1.14550


Jobin, A., Ienca, M. y Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399. https://doi.org/10.1038/s42256-019-0088-2


Johansson, J. V., Dembrower, K., Strand, F. y Grauman, Å. (2024). Women's perceptions and attitudes towards the use of AI in mammography in Sweden: a qualitative interview study. BMJ Open, 14(2), e084014. https://doi.org/10.1136/bmjopen-2024-084014


Ju, W. y Takayama L. (2011). Should robots or people do these jobs? A survey of robotics experts and non-experts about which jobs robots should do. En 2011 IEEE/RSJ International Conference on Intelligent Robots and Systems (pp. 2452-2459). https://doi.org/10.1109/IROS.2011.6094759


Kamppuri, M., Bednarik, R. y Tukiainen, M. (2006). The expanding focus of HCI: case culture. En A. Mørch, K. Morgan, T. Bratteteig, G. Ghosh, D. Svanaes (Eds.), NordiCHI '06: Proceedings of the 4th Nordic conference on Human-computer interaction: changing roles (pp. 405-408). Association for Computing Machinery. https://doi.org/10.1145/1182475.1182523


Kaur, C. y Sharma, A. (2020). Social issues sentiment analysis using python. En 2020 5th international conference on computing, communication and security (ICCCS) (pp. 1-6). IEEE. https://doi.org/10.1109/ICCCS49678.2020.9277251


Khan, F. H., Qamar, U. y Bashir, S. (2017). Lexicon based semantic detection of sentiments using expected likelihood estimate smoothed odds ratio. Artificial Intelligence Review, 48, 113-138. https://doi.org/10.1007/s10462-016-9496-4


Ko, J. y Song, A. (2024). Youth perceptions of AI ethics: a Q methodology approach. Ethics & Behavior, 1-18. https://doi.org/10.1080/10508422.2024.2396582


Li, H., Chen, Q., Zhong, Z., Gong, R. y Han, G. (2022). E-word of mouth sentiment analysis for user behavior studies. Information Processing & Management, 59(1), 102784. https://doi.org/10.1016/j.ipm.2021.102784


Liu B. y Zhang, L. (2012). A Survey of Opinion Mining and Sentiment Analysis. En C. Aggarwal and C. Zhai (Eds.), Mining text data (pp. 415-463). Springer. https://doi.org/10.1007/978-1-4614-3223-4_13


Liu, B. (2012). Sentiment analysis and opinion mining. En Synthesis Lectures on Human Language Technologies. Springer Nature. https://doi.org/10.1007/978-3-031-02145-9


Lohr, S. (January 12, 2017). Robots Will Take Jobs, but Not as Fast as Some Fear, New Report Says. The New York Timeshttps://www.nytimes.com/2017/01/12/technology/robots-will-take-jobs-but-not-as-fast-as-some-fear-new-report-says.html


Lohr, S. y Markoff, J. (June 24, 2010). Computers Learn to Listen, and Some Talk Back. The New York Times. https://www.nytimes.com/2010/06/25/science/25voice.html


Markoff, J. (December 15, 2014). Study to Examine Effects of Artificial Intelligence. The New York Times. https://www.nytimes.com/2014/12/16/science/century-long-study-will-examine-effects-of-artificial-intelligence.html


McCarthy, J., Minsky, M., Rochester, N. y Shannon, C. (1955). A proposal for the Dartmouth Summer Research Project on Artificial Intelligence. http://wwwformal.stanford.edu/jmc/history/dartmouth.pdf


Medhat, W., Hassan, A. y Korashy, H. (2014). Sentiment analysis algorithms and applications: A survey. Ain Shams Engineering Journal, 5(4), 1093-1113. https://doi.org/10.1016/j.asej.2014.04.011


Nausheen, F. y Begum, S. H. (2018). Sentiment analysis to predict election results using Python. En 2018 2nd international conference on inventive systems and control (ICISC) (pp. 1259-1262). IEEE. https://doi.org/10.1109/ICISC.2018.8399007


Nezhad, Z. B. y Deihimi, M. A. (2022). Twitter sentiment analysis from Iran about COVID 19 vaccine. Diabetes & Metabolic Syndrome: Clinical Research & Reviews, 16(1), 102367. https://doi.org/10.1016/j.dsx.2021.102367


Onan, A. y Korukoğlu, S. (2016). A review of literature on the use of machine learning methods for opinion mining. Pamukkale Üniversitesi Mühendislik Bilimleri Dergisi, 22(2), 111-122. https://doi.org/10.5505/pajes.2015.90018


Onan, A., Korukoğlu, S. y Bulut, H. (2016). A multiobjective weighted voting ensemble classifier based on differential evolution algorithm for text sentiment classification. Expert Systems with Applications, 62, 1-16. https://doi.org/10.1016/j.eswa.2016.06.005


Palanisamy, P., Yadav, V. y Elchuri, H. (2013, June). Serendio: Simple and Practical lexicon based approach to Sentiment Analysis. En Second Joint Conference on Lexical and Computational Semantics (* SEM), Volume 2: Proceedings of the Seventh International Workshop on Semantic Evaluation (SemEval 2013) (pp. 543-548). https://aclanthology.org/S13-2091/


Pang, B., Lee, L. y Vaithyanathan, S. (2002). Thumbs up?: Sentiment Classification Using Machine Learning Techniques. En Proceedings of the ACL-02 conference on Empirical methods in natural language processing - Volume 10 (EMNLP '02) (pp. 79-86). Association for Computational Linguistics. https://doi.org/10.3115/1118693.1118704


Pasquale, F. (2015). The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press. https://doi.org/10.4159/harvard.9780674736061


Pawar, K. K., Shrishrimal, P. P. y Deshmukh, R. R. (2015). Twitter Sentiment Analysis: A Review. International Journal of Scientific & Engineering Research, 6(4), 957-964. https://www.researchgate.net/profile/Kishori-Pawar/publication/277554643_Twitter_Sentiment_Analysis_A_Review/links/556c64a008aec22683049811/Twitter-Sentiment-Analysis-A-Review.pdf


Pedersen, T. y Johansen, C. (2020). Behavioural artificial intelligence: an agenda for systematic empirical studies of artificial inference. AI & Society, 35, 519-532. https://doi.org/10.1007/s00146-019-00928-5


Qian, C., Mathur, N., Zakaria, N. H., Arora, R., Gupta, V. y Ali, M. (2022). Understanding public opinions on social media for financial sentiment analysis using AI-based techniques. Information Processing & Management, 59(6), 103098. https://doi.org/10.1016/j.ipm.2022.103098


Riaz, S., Fatima, M., Kamran, M. y Nisar, M. W. (2019). Opinion mining on large scale data using sentiment analysis and k-means clustering. Cluster Computing, 22(Suppl 3), 7149-7164. https://doi.org/10.1007/s10586-017-1077-z


Riley, C., Buckner, K., Johnson, G. y Benyon, D. (2009). Culture & biometrics: regional differences in the perception of biometric authentication technologies. AI & Society, 24(3), 295-306. https://doi.org/10.1007/s00146-009-0218-1


Sindermann, C., Sha, P., Zhou, M., Wernicke, J., Schmitt, H. S., Li, M., Sariyska, R., Stavrou, M., Becker, B. y Montag, C. (2021). Assessing the Attitude Towards Artificial Intelligence: Introduction of a Short Measure in German, Chinese, and English Language. KI-Künstliche Intelligenz, 35, 109-118. https://doi.org/10.1007/s13218-020-00689-0


Soler, J. M., Cuartero, F. y Roblizo, M. (2012). Twitter as a tool for predicting elections results. En 2012 IEEE/ACM International Conference on Advances in Social Networks Analysis and Mining (pp. 1194-1200). IEEE. https://doi.org/10.1109/ASONAM.2012.206


Stine, R. A. (2019). Sentiment analysis. Annual review of statistics and its application, 6, 287-308. https://doi.org/10.1146/annurev-statistics-030718-105242


Tan, S. y Zhang, J. (2008). An empirical study of sentiment analysis for chinese documents. Expert Systems with Applications, 34(4), 2622-2629. https://doi.org/10.1016/j.eswa.2007.05.028


Tong, R. M. (2001). An Operational System for Detecting and Tracking Opinions in On-Line Discussion. En Proceedings of SIGIR 2001 Workshop on Operational Text Classification. ABD.


Tsaih, R.-H. y Hsu, C. C. (2018). Artificial intelligence in smart tourism: a conceptual framework. En Proceedings of The 18th International Conference on Electronic Business (pp. 124-133). ICEB. https://iceb.johogo.com/proceedings/2018/ICEB2018_paper_84_full.pdf


Turney, P. D. (2002). Thumbs up or Thumbs down?: Semantic Orientation Applied to Unsupervised Classification of Reviews. En Proceedings of the 40th Annual Meeting on Association for Computational Linguistics (ACL '02) (pp. 417-424). Association for Computational Linguistics. https://doi.org/10.3115/1073083.1073153


Vasileios, H. y Janyce, M. W. (2000). Effects of Adjective Orientation and Gradability on Sentence Subjectivity. En Proceedings of the 18th conference on Computational linguistics - Volume 1 (COLING '00) (pp. 299-305). Association for Computational Linguistics. https://doi.org/10.3115/990820.990864


Williams, W., Parkes, E. L. y Davies, P. (2013). Wordle: A method for analysing MBA student induction experience. The International Journal of Management Education, 11(1), 44-53. https://doi.org/10.1016/j.ijme.2012.10.002


Wilson, T., Wiebe, J. y Hoffmann, P. (2005, October). Recognizing contextual polarity in phrase-level sentiment analysis. En Proceedings of the conference on Human Language Technology and Empirical Methods in Natural Language Processing (HLT '05) (pp. 347-354). Association for Computational Linguistics. https://doi.org/10.3115/1220575.1220619


Yaşa, H. (2022). Çevre(cilik) Hareketi Olarak Sosyal Medyada Sıfır Atık Hareketi. Selçuk Üniversitesi Sosyal Bilimler Enstitüsü Dergisi, 49, 212-230. https://doi.org/10.52642/susbed.1156189


Zhang, B. y Dafoe, A. (2019). Artificial Intelligence: American Attitudes and Trends. SSRN. https://doi.org/10.2139/ssrn.3312874

 

AUTOR:

Hüseyin Yaşa

Independent Researcher

Completó 2 años de su educación de pregrado en la Universidad de Gaziantep, Facultad de Comunicación, Departamento de Periodismo, y los últimos 2 años de su educación de pregrado en la Universidad de Akdeniz, Facultad de Comunicación, Departamento de Periodismo en Antalya. Completó su maestría en Antalya, Universidad de Akdeniz, Instituto de Ciencias Sociales, Departamento de Periodismo en 2017. Actualmente, completó su formación de doctorado en Eskişehir, Universidad de Anadolu, Instituto de Ciencias Sociales, Departamento de Prensa y Radiodifusión y como becario YÖK 100/2000 de Estudios de Medios Sociales, TÜBİTAK 2211-A y continúa su investigación como investigador independiente. Sus intereses y temas académicos incluyen estudios sobre comunicación y medios sociales, nuevas tecnologías de la comunicación, medios digitales, nuevos medios, periodismo, semiótica, incitación al odio, género, personas influyentes y liderazgo de opinión.

hsynyasa@gmail.com 

Índice H: 5

Orcid ID: https://orcid.org/0000-0003-0589-0842

Google Scholar: https://scholar.google.com/citations?user=GTt1RDUAAAAJ&hl=tr

ResearchGate: https://www.researchgate.net/profile/Hueseyin-Yasa 

Academia.edu: https://anadolu.academia.edu/H%C3%BCseyinYa%C5%9Fa 

 

ARTÍCULOS RELACIONADOS:

Aramburú Moncada, L. G., López Redondo, I., & López Hidalgo, A. (2023). Inteligencia artificial en RTVE al servicio de la España vacía. Proyecto de cobertura informativa con redacción automatizada para las elecciones municipales de 2023. Revista Latina de Comunicación Social, 81, 1-16. https://doi.org/10.4185/RLCS-2023-1550


Hueso Romero, J. J. (2022). Creación de una red neuronal artificial para predecir el comportamiento de las plataformas MOOC sobre la agenda 2030 y los objetivos para el desarrollo sostenible. Vivat Academia, 155, 61-89. https://doi.org/10.15178/va.2022.155.e1386


Neira-Placer, P., & Visiers, A. (2023). Los valores asociados a juguetes en los contenidos de canales YouTube: Estudio de caso. Revista de Comunicación de la SEECI, 57, 1-19. https://doi.org/10.15198/seeci.2024.57.e858


Pérez Altable, L., & Serrano-Tellería, A. (2021). Communications patterns and power dynamics in the digital public sphere: A case study of the conversation about Minimum Living Income on Twitter. European Public & Social Innovation Review, 6(1), 1-15. https://epsir.net/index.php/epsir/article/view/148


Pérez Ordóñez, C., & Castro-Martínez, A. (2023). Creadores de contenido especializado en salud en redes sociales. Los micro influencers en Instagram. Revista de Comunicación y Salud, 13, 23-38. https://doi.org/10.35669/rcys.2023.13.e311