The words you are searching are inside this book. To get more targeted content, please make full-text search by clicking here.

Buku ini menggabungkan pengetahuan tentang Kecerdasan Buatan dan Internet of Things, membawa pembaca ke dalam dunia teknologi yang terhubung dan cerdas. Dari konsep dasar hingga aplikasi praktis, pembaca akan dijejali dengan wawasan tentang bagaimana kedua teknologi ini saling melengkapi, membentuk landasan bagi masa depan yang inovatif dan terkoneksi. Buku ini menjadi panduan tak ternilai bagi mereka yang ingin memahami dan memanfaatkan potensi revolusioner dari keterkaitan antara kecerdasan buatan dan Internet of Things.

Discover the best professional documents and content resources in AnyFlip Document Base.
Search
Published by penamudamedia, 2024-07-01 09:01:10

Kecerdasan Buatan dan IoT

Buku ini menggabungkan pengetahuan tentang Kecerdasan Buatan dan Internet of Things, membawa pembaca ke dalam dunia teknologi yang terhubung dan cerdas. Dari konsep dasar hingga aplikasi praktis, pembaca akan dijejali dengan wawasan tentang bagaimana kedua teknologi ini saling melengkapi, membentuk landasan bagi masa depan yang inovatif dan terkoneksi. Buku ini menjadi panduan tak ternilai bagi mereka yang ingin memahami dan memanfaatkan potensi revolusioner dari keterkaitan antara kecerdasan buatan dan Internet of Things.

41 memecah kalimat, memahami konteks, dan menghasilkan respons yang sesuai. Bagaimana cara kerja NLP Proses yang dilakukan pada natural language processing yaitu: [Input Text] Text Preprocessing Feature Extraction Model Training Evaluation Deployment [Output] 1. Text Preprocessing: merupakan proses yang akan membersihkan data teks dari tanda baca, menyamakan teks menjadi huruf kecil, kemudian memecah kata menjadi token atau bagian yang lebih kecil. Contoh bentuk token misalnya kalimat dari suatu paragraf, token dari kalimat adalah kata. 2. Feature Extraction: proses selanjutnya adalah mengubah data teks hasil text processing menjadi representasi numerik menggunakan metode seperti Bag of Words atau Word Embeddings. 3. Model Training: data teks yang sudah diproses kemudian digunakan untuk dilatih di machine learning sesuai dengan tujuan NLP, misalkan untuk proses klasifikasi dokumen atau proses menerjemahkan kalimat. 4. Evaluation: setelah terbentuk model dari hasil machine learning, model tersebut dievaluasi menggunakan pengukuran akurasi dan FI-score. Gunanya untuk menilai apakah model yang terbentuk baik dan akurat atau tidak. 5. Deployment: Jika hasil evaluasi sudah melewati batas minimal error, maka model dapat diintegrasikan


42 dalam lingkungan produksi misalnya pada chatbot atau search engine. Algoritma popular pada NLP 1. Bag of Word (BoW): Bag of Word merupakan algoritma sederhana yang menggambarkan teks melalui banyaknya kemunculan suatu kata. Jadi output dari BoW adalah daftar jumlah kemunculan dari setiap kata yang ada dalam suatu dokumen. 2. Word Embeddings (Word2Vec): Algoritma Word2Vec mewakili kata-kata sebagai vektor dalam ruang dimensi tinggi, sehingga dapat menangkap arti kata – kata berdasarkan konteksnya. 3. Recurrent Neural Network (RNN): algoritma ini cocok digunakan untuk data sekuensial sehingga pada NLP algoritma ini dapat digunakan untuk terjemahan bahasa dan pembangkit teks. 4. Transformes: Algoritma Transformer biasanya digunakan untuk aplikasi terjemahan bahasa dan untuk membuat ringkasan dari teks. Contoh penerapan NLP di dunia nyata 1. Asisten Virtual: NLP digunakan pada aplikasi seperti Siri, Alexa, dan Google Assistant dalam memahami konteks dari perintah suara sehingga dapat merespon dengan benar. 2. Klasifikasi dokumen: NLP dapat digunakan untuk mengklasifikasikan dokumen seperti berdasarkan topiknya, identifikasi bahasa, atau penentuan penulis


43 berdasarkan gaya bahasanya untuk menghindari plagiarisme (Goldberg et al., 2017). 3. Layanan Pelanggan: layanan pelanggan yang menggunakan Chatbot juga menggunakan NLP untuk berinteraksi dengan pelanggan dan menjawab pertanyaan dari pelanggan.


44 Bidang Kecerdasan Buatan dalam Data Deny Haryadi, S.Kom., M.Kom. ernahkah anda bayangkan bahwa data yang kita gunakan saat ini berpotensi untuk dapat diolah kembali menjadi sebuah pengetahuan. Padahal data itu sendiri sering terabaikan dan tidak memiliki arti yang bermakna secara langsung. Hal tersebut dapat dilakukan dengan menggunakan teknik dan metode yang ada pada kecerdasan buatan atau artificial intelligence (AI). Melalui teknik dan metode tersebut, data dapat dianalisis dan diinterpretasikan menjadi sebuah wawasan, pemahaman dan pengetahuan yang berharga. Seperti yang kita ketahui, data merupakan kumpulan informasi atau fakta yang dihasilkan dari suatu proses atau aktivitas yang dilakukan oleh manusia. Sedangkan kecerdasan buatan (AI) adalah bidang ilmu komputer yang tujuannya menciptakan suatu sistem, pola atau aturan yang mampu meniru kemampuan manusia dalam memahami, mempelajari, P


45 merencanakan dan menyelesaikan tugas-tugas yang memerlukan kecerdasan manusia (Robandi, 2021). Bidang kecerdasan buatan (AI) dalam pengelolaan data telah menjadi pusat perhatian dalam era digital ini. Kecerdasan buatan (AI) memberikan kemampuan kepada sistem untuk mengumpulkan, menganalisis dan menginterpretasi data secara otomatis, memungkinkan organisasi untuk menghasilkan wawasan yang mendalam dari volume data yang besar dan kompleks. Dengan metode kecerdasan buatan (AI) seperti searching, reasoning, planning dan learning dapat mengidentifikasi pola, membuat prediksi dan bahkan mengambil keputusan secara mandiri berdasarkan data yang diberikan (Dr. Suyanto, 2021). Dalam konteks bisnis, penggunaan kecerdasan buatan (AI) dalam pengelolaan data memiliki potensi untuk meningkatkan efisiensi operasional, mengoptimalkan pengalaman pelanggan, serta membuka peluang baru untuk inovasi dan pertumbuhan (Ardiyanti et al., 2024). Meskipun kecerdasan buatan (AI) menawarkan berbagai manfaat, tantangan seperti privasi data, bias dan keamanan tetap menjadi perhatian utama yang perlu diatasi. Oleh karena itu, pemahaman yang mendalam tentang aplikasi, potensi, serta tantangan dalam bidang kecerdasan buatan (AI) dalam pengelolaan data sangat penting untuk mengoptimalkan pemanfaatannya secara efektif di berbagai sektor dan disiplin ilmu.


46 Gambar 4. Metode Kecerdasan Buatan A. Definisi Data dalam Kecerdasan Buatan Dalam konteks kecerdasan buatan (AI), data merujuk pada informasi yang digunakan untuk melatih dan mengembangkan metode atau teknik kecerdasan buatan (AI). Data ini dapat berupa berbagai jenis baik teks, gambar, suara, atau kombinasi dari semuanya. Data merupakan kebutuhan yang sangat penting bagi sistem kecerdasan buatan (AI) karena algoritma pada sistem kecerdasan buatan (AI) dapat belajar dan membuat keputusan berdasarkan informasi yang diberikan. Ada beberapa aspek hubungan data dalam kecerdasan buatan (Iskandar et al., 2024):


47 1. Koleksi Data: Kegiatan ini melibatkan pengumpulan data dari berbagai sumber seperti sensor, perangkat, basis data, dan sumber lainnya. Koleksi data harus dilakukan dengan memperhatikan kualitas, volume, dan keberagaman data yang diperlukan untuk melatih dan menguji model kecerdasan bautan (AI). 2. Pembersihan Data: Data yang dikumpulkan seringkali tidak sempurna. Pembersihan data melibatkan penghapusan data yang tidak relevan, mengisi nilai yang hilang, menormalisasi data, dan menghilangkan outlier. Pembersihan data yang efektif sangat penting untuk hasil yang akurat. 3. Pemrosesan Data: Proses ini melibatkan transformasi data menjadi format yang dapat diproses oleh model kecerdasan buatan (AI) dengan melibatkan ekstraksi fitur, pengurangan dimensi, atau teknik lainnya untuk mempersiapkan data untuk pelatihan dan pengujian model. 4. Pelatihan Model: Data digunakan untuk melatih model kecerdasan buatan (AI). Proses ini melibatkan memberikan model akses ke data yang relevan dan memungkinkannya untuk menemukan pola dan hubungan di dalamnya. Semakin baik kualitas dan keberagaman data latihan, semakin baik juga kinerja model. 5. Validasi dan Pengujian: Setelah model dilatih, data digunakan untuk menguji dan memvalidasi kinerjanya. Data pengujian harus terpisah dari data pelatihan dan dapat memberikan gambaran yang baik tentang seberapa baik model dapat menggeneralisasi ke data baru.


48 6. Pemantauan dan Penyesuaian: Setelah model diterapkan, data digunakan untuk memantau kinerjanya secara kontinyu. Jika data baru menunjukkan pola atau perilaku yang tidak dikenali oleh model, model tersebut mungkin perlu disesuaikan atau diperbarui. Proses pengumpulan, penyimpanan, dan pemrosesan data adalah tahap kunci dalam pengembangan solusi kecerdasan buatan (AI) yang efektif. Selain itu, kualitas dan kuantitas data sangat mempengaruhi kinerja dan akurasi model kecerdasan buatan (AI). Oleh karena itu, dalam pengembangan solusi kecerdasan buatan (AI), penting untuk memperoleh data yang relevan, representtatif dan bervariasi sebanyak mungkin untuk memastikan hasil yang optimal dari sistem yang dibangun. Selain itu, pemrosesan data yang cermat termasuk seleksi, pembersihan, transformasi dan pengaturan juga merupakan langkah penting dalam mempersiapkan data agar sesuai dengan kebutuhan dan tujuan pengembangan kecerdasan buatan (AI). Dalam kecerdasan buatan, data bukan hanya sekadar informasi, tetapi merupakan fondasi utama yang membentuk kecerdasan dan kemampuan sistem kecerdasan buatan (AI) untuk memahami dan berinteraksi dengan dunia. B. Teknik dan Metode Kecerdasan Buatan dalam Pengolahan Data Dalam pengolahan data menggunakan kecerdasan buatan (AI) terdapat berbagai teknik dan metode yang digunakan untuk menghasilkan wawasan atau pengetahuan yang berharga dari data tersebut. Salah satu teknik


49 utama adalah machine learning, di mana algoritma belajar dari data untuk mengidentifikasi pola dan membuat prediksi atau keputusan tanpa instruksi eksplisit. Machine learning mencakup berbagai pendekatan, seperti supervised learning di mana model dilatih dengan menggunakan pasangan data baik input maupun output yang telah ditentukan, unsupervised learning di mana model mencari pola dalam data tanpa bimbingan eksternal, dan reinforcement learning di mana model belajar melalui interaksi dengan lingkungan dan menerima umpan balik atas tindakan yang diambil (Dr. Suyanto, 2023). Selain itu, teknik pengolahan bahasa alami (natural language processing) digunakan untuk memahami dan memproses teks dalam bahasa manusia, termasuk analisis sentimen, pengenalan entitas, dan penerjemahan (Dr. Ilmiyati Sari and Dr. Dina Indarti, 2023). Teknik lainnya termasuk computer vision untuk memproses dan menganalisis gambar dan video, serta teknik optimisasi untuk memaksimalkan kinerja model dengan memperbaiki parameter dan arsitektur (Gaffar, 2021). Selain itu, teknik pengelompokan (clustering) digunakan untuk mengelompokkan data ke dalam kelompok-kelompok yang serupa, sementara teknik reduksi dimensi digunakan untuk mengurangi kompleksitas data dengan mempertahankan informasi penting (Dr. Suyanto, 2019). Dengan menggunakan berbagai teknik ini, kecerdasan buatan memungkinkan pengolahan data yang lebih efisien, analisis yang lebih mendalam, dan pengambilan keputusan yang lebih cerdas berdasarkan informasi yang tersedia. Selain teknik kecerdasan buatan (AI) terdapat pula metode kecerdasan buatan (AI) yang dapat menyelesaikan


50 berbagai macam tugas yang kompleks mulai dari pencarian solusi dalam ruang masalah yang besar, membuat keputusan berdasarkan logika dan probabilitas, merencanakan tindakan untuk mencapai tujuan, hingga mempelajari pola-pola baru dari data (Dr. Suyanto, 2021): 1. Searching (Pencarian) Pencarian dalam kecerdasan buatan merujuk pada proses mencari solusi atau jawaban dari masalah tertentu dalam ruang masalah yang diberikan. Metode pencarian dapat dikategorikan menjadi beberapa jenis yaitu Pencarian tak berinformasi (Uninformed Search). Metode ini tidak menggunakan informasi tambahan mengenai ruang masalah. Contohnya adalah Breadth-First Search (BFS) mencari semua node pada level kedalaman yang sama sebelum pindah ke level berikutnya. Contoh lainnya DepthFirst Search (DFS) mengeksplorasi sebanyak mungkin cabang dari sebuah node sebelum backtracking. Metode lainnya pencarian berinformasi (Informed Search). Metode ini menggunakan informasi tambahan untuk memandu pencarian ke arah solusi yang lebih cepat atau lebih efisien. Contohnya adalah A Search menggunakan fungsi heuristik untuk memperkirakan biaya tersisa menuju solusi, mengga-bungkan biaya jalur sejauh ini dan estimasi biaya ke depan. Contoh lainnya Greedy Best-First Search memilih jalur yang tampaknya paling dekat ke tujuan berdasarkan fungsi heuristik.


51 2. Reasoning (Penalaran) Penalaran dalam kecerdasan buatan adalah proses membuat inferensi atau kesimpulan dari faktafakta yang diketahui atau asumsi-asumsi yang diberikan. Ada beberapa jenis penalaran. Pertama, Penalaran Deduktif membuat kesimpulan yang logis dari premis yang diberikan. Jika premis-premis benar, kesimpulan pasti benar. Kedua, Penalaran Induktif membuat generalisasi berdasarkan contoh-contoh tertentu. Kesimpulannya mungkin benar tetapi tidak dijamin. Ketiga, Penalaran Abduktif membuat kesimpulan terbaik yang mungkin menjelaskan sekumpulan fakta. Keempat, Penalaran Probabilistik menggunakan teori probabilitas untuk membuat kesimpulan dalam situasi ketidakpastian. 3. Planning (Perencanaan) Perencanaan dalam kecerdasan buatan melibatkan pembuatan serangkaian tindakan yang perlu dilakukan untuk mencapai tujuan tertentu. Beberapa metode perencanaan antara lain Pertama, Planning Berbasis Keadaan (State-Space Planning) mencari solusi dengan mengeksplorasi ruang keadaan dari semua kemungkinan keadaan dan tindakan yang mungkin. Kedua, Hierarchical Task Network (HTN) Planning memecah tugas kompleks menjadi sub-tugas yang lebih kecil dan lebih mudah diatur. Metode ini menggunakan hierarki untuk mengorganisasi tugastugas. Ketiga, Contingency Planning membuat rencana yang memperhitungkan ketidakpastian atau perubahan yang mungkin terjadi di masa depan. Rencana


52 ini mencakup beberapa jalur tindakan berdasarkan hasil dari berbagai kondisi. Keempat, Reinforcement Learning (RL) Planning menggunakan teknik pembelajaran mesin di mana agen belajar membuat rencana berdasarkan pengalaman sebelumnya dan umpan balik dari lingkungan. 4. Learning (Pembelajaran) Pembelajaran dalam kecerdasan buatan adalah proses di mana sistem memperoleh pengetahuan atau keterampilan baru melalui pengalaman atau data. Terdapat beberapa pendekatan utama dalam pembelajaran mesin (machine learning). Pertama, Supervised Learning (Pembelajaran Terawasi) dimana sistem dilatih menggunakan pasangan input-output yang diketahui, dan model belajar untuk memetakan input ke output. Contoh: Klasifikasi dan regresi. Algoritma: Linear regression, Support Vector Machines (SVM), Neural Networks. Kedua, Unsupervised Learning (Pembelajaran Tak Terawasi) dimana sistem mencoba menemukan pola atau struktur dalam data yang tidak diberi label. Contoh: Clustering dan asosiasi. Algoritma: K-means, Principal Component Analysis (PCA). Ketiga, Semi-Supervised Learning merupakan kombinasi dari pembelajaran terawasi dan tak terawasi, di mana sebagian data diberi label dan sebagian lagi tidak. Keempat, Reinforcement Learning (Pembelajaran Penguatan) dimana agen belajar untuk membuat keputusan dengan mengambil tindakan dalam suatu lingkungan untuk memaksimalkan suatu reward atau ganjaran. Agen menerima umpan balik


53 dalam bentuk reward dan menggunakan informasi ini untuk meningkatkan kinerjanya. Algoritma: QLearning, Deep Q-Network (DQN), Proximal Policy Optimization (PPO). Kelima, Deep Learning Dimana subset dari machine learning yang menggunakan jaringan saraf tiruan dengan banyak lapisan (deep neural networks) untuk mempelajari representasi data yang kompleks. Algoritma: Convolutional Neural Networks (CNN), Recurrent Neural Networks (RNN), Transformer. C. Aplikasi Kecerdasan Buatan dalam Pengolahan Data Aplikasi kecerdasan buatan dalam pengolahan data dalam aspek kehidupan telah membawa perubahan besar dalam cara kita mengumpulkan, menyimpan, menganalisis, dan menggunakan informasi. Salah satu aplikasi utama adalah analisis prediktif, di mana algoritma machine learning digunakan untuk menganalisis data historis dan mengidentifikasi pola serta tren yang dapat digunakan untuk membuat perkiraan masa depan. Dalam konteks bisnis, perusahaan dapat membuat keputusan yang lebih tepat dalam meminimalkan risiko dan meningkat-kan efisiensi operasional. Selain itu, kecerdasan buatan (AI) memungkinkan pengoptimalan proses bisnis dengan menyesuaikan jadwal dan alokasi sumber daya secara otomatis berdasarkan analisis data yang terus menerus (Dydrov, Tikhonova and Baturina, 2023). Di samping itu, kemampuan pengenalan pola kecerdasan buatan (AI) memungkinkan organisasi untuk


54 mendeteksi anomali atau pola yang tidak biasa dalam data, seperti tanda-tanda kecurangan atau potensi masalah operasional (Dkk, Dr. Suyanto, 2019). Dalam interaksi dengan pengguna, kecerdasan buatan (AI) memungkinkan personalisasi yang lebih dalam dengan menyediakan pengalaman yang disesuaikan secara individual berdasarkan preferensi dan perilaku pengguna yang dipelajari dari data yang dikumpulkan. Di bidang keuangan, kecerdasan buatan (AI) digunakan untuk mengelola risiko dengan menganalisis portofolio investasi atau memprediksi perilaku pasar (Mustika et al., 2021). Teknologi pengolahan bahasa alami memungkinkan sistem untuk memahami dan merespons teks manusia, memfasilitasi layanan pelanggan otomatis atau analisis sentimen media sosial (Dr. Ilmiyati Sari and Dr. Dina Indarti, 2023). Begitu juga dengan computer vision, yang memungkinkan pengolahan dan analisis gambar serta video untuk berbagai keperluan, mulai dari pengenalan objek hingga pengawasan keamanan (Gaffar, 2021). Penerapan kecerdasan buatan dalam pengelolaan data membuka peluang besar untuk meningkatkan efisiensi, produktivitas, dan inovasi di berbagai sektor dan disiplin. D. Tantangan dan Masa Depan Kecerdasan Buatan dalam Pengolahan Data Meskipun kecerdasan buatan (AI) menjanjikan kemajuan besar dalam pengolahan data, namun masih ada beberapa tantangan yang perlu diatasi untuk mewujudkan potensi dari data tersebut. Salah satunya adalah masalah


55 privasi dan keamanan data. Dalam pengumpulan dan penggunaan data, penting bagi kita untuk memastikan bahwa informasi sensitif yang ada pada data tersebut dilindungi dan pengguna memiliki kontrol terhadap penggunaan data tersebut. Selain itu, masalah bias dalam data dan algoritma juga menjadi perhatian utama. Data yang tidak representatif atau bervariasi dapat menyebabkan model kecerdasan buatan (AI) menghasilkan keputusan yang tidak akurat (Andriyani et al., 2024). Selanjutnya, masalah etika dan kepatuhan muncul seiring dengan penggunaan kecerdasan buatan (AI) dalam pengambilan keputusan yang berdampak besar. Diperlukan kerangka kerja yang jelas untuk memastikan bahwa penggunaan kecerdasan buatan (AI) tetap sesuai dengan nilai-nilai moral dan hukum. Di samping itu, masih ada tantangan teknis dalam pengembangan algoritma yang lebih efisien dalam mengatasi keterbatasan perangkat keras yang ada(Andriyani et al., 2024). Meskipun adanya tantangan tersebut, masa depan kecerdasan buatan dalam pengolahan data tetap cerah. Dengan terus meningkatnya investasi dalam riset dan pengembangan, serta regulasi yang bijaksana untuk mengatasi tantangan etis dan privasi, kecerdasan buatan berpotensi untuk menjadi pendorong utama inovasi dalam pengolahan data dan membantu kita mengatasi tantangantantangan kompleks di masa depan. E. Kesimpulan Secara keseluruhan, kecerdasan buatan menjanjikan kemajuan besar dalam pengolahan data, namun masih


56 dihadapkan pada sejumlah tantangan yang perlu diatasi. Tantangan tersebut meliputi masalah privasi dan keamanan data, serta tantangan teknis dalam pengemba-ngan algoritma dan perangkat keras. Meskipun demikian, masa depan kecerdasan buatan dalam pengolahan data tetap cerah, dengan terobosan teknologi yang terus mendorong inovasi, integrasi dengan teknologi lain seperti IoT dan blockchain, serta investasi dalam riset dan pengembangan. Dengan penanganan yang bijaksana terhadap tantangan-tantangan tersebut, kecerdasan buatan memiliki potensi besar untuk menjadi pendorong utama inovasi dalam pengelolaan data di masa depan.


57 Kecerdasan Buatan dalam Teks Indra Aulia, S.TI., M.Kom., CIAR., MCE., CIH alam beberapa dekade terakhir, Artificial Intelligence (AI) atau Kecerdasan Buatan telah mengalami perkembangan pesat dan menjadi bagian integral dari berbagai bidang ilmu dan industri. Salah satu aplikasi yang paling menarik dan berdampak signifikan dari AI adalah dalam pengolahan teks. Pengolahan teks berbasis AI secara spesifik menggunakan berbagai pendekatan yang dikenalkan dalam keilmuan Natural Language Processing (NLP) yang merupakan cabang keilmuan dari AI. Melalui teknik dan metode di NLP, suatu mesin dapat secara mudah memahami, menghasilkan dan memanipulasi suatu bahasa manusia. NLP menjadi salah satu pendekatan keilmuan yang saat ini membuka berbagai pintu inovasi dalam kehidupan sehari-hari manusia. Salah satu produk inovasi diantaranya mesin penterjemah bahasa(Abidin et al., 2023; Pourkamali and Sharifi, 2024), pembangkitan kalimat (Amirullah, Aulia and D


58 Arisandy, 2020; Christina; Aulia and Purnamawati, 2023a), pemahaman teks (Amalia et al., 2019) dan analisis sentimen (Song and Seo, 2024). Namun, teknik dan metode NLP masih akan terus dikembangkan guna dapat mengatasi secara penuh tantangan akan aturan tata bahasa, struktur, gaya, makna dan variasi bahasa yang beragam di seluruh dunia (Pratiwi, 2024). Selanjutnya bab ini akan menjelaskan dasar-dasar kecerdasan buatan dalam pengolahan teks, termasuk konsep dasar NLP, metode dan teknik yang digunakan, serta aplikasi praktis yang telah merevolusi cara kita berinteraksi dengan teknologi. Dengan memahami pondasi ini, kita dapat memahami bagaimana AI dan NLP mengubah lanskap interaksi dan analisis data teks. A. Konsep Dasar Natural Language Processing (NLP) Natural Language Processing (NLP) adalah cabang dari kecerdasan buatan (AI) yang berfokus pada interaksi antara komputer dan bahasa manusia, mencakup berbagai teknik untuk memungkinkan mesin memahami, menganalisis, menghasilkan, dan merespons teks atau ucapan dalam bahasa alami (Jurafsky, Daniel & Martin, 2001). NLP memainkan peran penting dalam AI karena memampukan komputer untuk berkomunikasi dengan manusia dalam bahasa yang kita gunakan sehari-hari, sehingga memperluas aplikasi AI ke bidang-bidang seperti asisten virtual, penerjemahan otomatis, dan analisis sentimen. Sebagai bagian dari AI, NLP menggabungkan ilmu komputer, linguistik, dan machine learning untuk


59 membangun sistem yang dapat memproses bahasa manusia dengan cara yang alami dan bermanfaat. NLP terdiri dari beberapa komponen utama yang bekerja bersama untuk memahami dan menghasilkan teks (Jurafsky, Daniel & Martin, 2001): 1. Sintaksis Sintaksis mengacu pada struktur dan aturan tata bahasa yang mengatur bagaimana kata-kata disusun menjadi kalimat. Analisis sintaksis melibatkan parsing teks untuk mengidentifikasi hubungan antar kata dan frasa dalam kalimat. Contoh dari tugas ini adalah analisis dependency dan constituency parsing. Contoh dalam bahasa Indonesia untuk kalimat ‚Saya makan sate padang‛ dalam diilustrasikan sintaksinya sebagai berikut: Saya/(Subjek) Makan/(Predikat) Sate Padang/(Objek) Dengan menggunakan teknik parsing di NLP, maka mesin dapat mengindentifikasi dan memahami bahwa ‚Saya‛ adalah subjek yang melakukan tindakan ‚makan‛ dengan objek dari tindakan tersebut adalah ‚sate padang‛ 2. Semantik Semantik berhubungan dengan makna kata dan kalimat. Ini melibatkan pemahaman konteks dan nuansa bahasa. Dalam NLP, analisis semantik mencakup tugas-tugas seperti pemahaman teks, pemodelan topik, dan penalaran semantik. Dengan demikian, semantik bertujuan untuk menginterpretasikan apa


60 yang sebenarnya dimaksudkan oleh penulis atau pembicara dalam konteks yang diberikan. Contoh dalam bahasa Indonesia untuk kalimat ‚Bank itu ada di pinggir taman kota‛. Mesin akan memaknai kalimat ini sebagai penjelasan suatu lembaga keuangan yang terletak secara geografis di sebelah taman kota. 3. Konteks Konteks sangat penting untuk memahami makna yang tepat dari teks. Konteks mencakup informasi tambahan yang membantu menafsirkan kalimat dengan benar, seperti latar belakang pengetahuan, hubungan antar kalimat, dan informasi dunia nyata. Contoh dalam bahasa Indonesia dalam suatu paragraf yang berisi ‚Pada suatu pagi, Azwar berjalan di taman bersama anaknya. Dia melihat ada seekor kucing yang lucu dan bersih namun kelaparan. Oleh karena itu, dia langsung memutuskan untuk membeli makanan kucing dan memberikannya kepada kucing tersebut.‛. Konteks dalam NLP mengarah kepada ‚Dia‛ yang merujuk kepada suatu subjek ganti orang yakni ‚Azwar‛. B. Tantangan yang dihadapi bidang NLP Perkembangan teknik dan metode di NLP bukan lantas tidak memiliki tantangan dalam pemrosesan data teks. Adapun tantangan yang dihadapi diantaranya:


61 1. Ambiguitas Semantik Ambiguitas semantik (Zempleni et al., 2007) terjadi ketika sebuah kata atau frase memiliki lebih dari satu makna. Ambiguitas semantik ini muncul karena terdapat kata-kata yang acap kali memiliki makna ganda atau lebih. Sebagai contoh kata ‚Bank‛ dalam bahasa Inggris memiliki beberapa makna yang berbeda-beda. a. Bank: diidentifikasi sebagai lembaga keuangan b. Bank: diidentifikasi sebagai sisi sungai c. Bank: diidentifikasi sebagai suatu tindakan menyimpan atau menumpuk sesuatu Dalam rangka untuk menyelesaikan tantangan ini, dalam dunia kecerdasan buatan khususnya NLP memberikan beberapa teknik atau pendekatan yang relevan, seperti pendekatan berbasis pembelajaran mesin, contextual embeddings atau lexical resources. 2. Variasi Bahasa Tantangan yang dihadapi dalam bidang NLP selanjutnya adalah variasi bahasa. Menurut Ethnologue, Indonesia memiliki 715 ragam bahasa yang berasal dari berbagai wilayah Indonesia (Humas, 2023). Angka ini belum masuk dialek dan subdialek ataupun bahasa daerah dan bahasa gaul yang diserap dalam kehidupan sehari-hari masyarakat Indonesia. Kehadiran sistem cerdas yang dibangun menggunakan pendekatan NLP harus mampu secara baik mengenali dan menafsirkan setiap ragam bahasa untuk selanjutnya direspon dengan benar sesuai


62 konteks yang dimaksud. Sebagai contoh, teknologi chatbot saat ini (seperti ChatGPT) telah mampu mengatasi keragaman bahasa secara global. Pengguna dapat berinteraksi dengan chatbot menggunakan berbagai bahasa, dan chatbot tersebut mampu menjawab dengan respon yang benar sesuai konteksnya. Hal ini dapat terjadi dengan baik karena model bahasa yang dibangun telah mencakup berbagai bahasa. 3. Bias Bahasa Bias dalam konteks bahasa yang beragam adalah tantangan signifikan dalam NLP yang disebabkan oleh ketidakmerataan data pelatihan dan nuansa budaya serta konteks spesifik dari berbagai bahasa. Bahasabahasa dominan seperti Inggris memiliki jumlah data pelatihan yang jauh lebih besar, sehingga model NLP cenderung memiliki performa yang lebih baik dalam bahasa-bahasa ini dibandingkan dengan bahasa yang kurang umum atau minoritas. Hal ini menciptakan kesenjangan dalam representasi dan pemahaman bahasa yang berbeda, memperkuat ketidaksetaraan dalam akses dan utilitas teknologi NLP. Misalnya, model terjemahan otomatis Google Translate cenderung memberikan terjemahan yang lebih akurat dan alami untuk pasangan bahasa Inggris-Spanyol dibandingkan dengan pasangan bahasa SwahiliBahasa Indonesia karena ketersediaan data yang lebih banyak dan berkualitas tinggi untuk bahasa-bahasa dominan.


63 Bias juga muncul dalam aplikasi terjemahan mesin, dimana perbedaan struktur bahasa dan makna kata sering kali menyebabkan terjemahan yang bias atau salah. Proses preprocessing yang penting seperti tokenisasi dan lemmatization bisa lebih menantang untuk bahasa dengan struktur morfologis kompleks atau yang tidak memiliki banyak sumber daya NLP. Misalnya, bahasa Turki yang memiliki struktur aglutinatif dengan banyak akhiran berbeda dalam satu kata, sering kali mempersulit proses tokenisasi. Selain itu, metode evaluasi multibahasa yang adil juga sulit dikembangkan karena data uji dan metrik evaluasi sering kali bias terhadap bahasa yang lebih umum. Upaya untuk mengatasi bias ini memerlukan pengumpulan data yang lebih banyak dan representatif dari berbagai bahasa, pengembangan teknik yang lebih baik untuk menangani variasi bahasa dan nuansa budaya, serta kolaborasi antara ahli bahasa, peneliti NLP, dan komunitas lokal untuk memastikan teknologi yang adil dan inklusif. Misalnya, melibatkan komunitas lokal dalam pengumpulan dan anotasi data bahasa minoritas dapat membantu memastikan bahwa model NLP lebih akurat dan relevan dalam konteks budaya mereka. C. Tahapan Umum dalam Pengolahan Data Teks Pengolahan data teks merupakan fondasi penting dalam pengembangan aplikasi berbasis Natural Language Processing (NLP). Proses ini mencakup serangkaian


64 langkah yang sistematis untuk mengubah teks mentah menjadi bentuk yang dapat dianalisis dan dipahami oleh mesin. Tahapan dasar pengolahan data teks melibatkan pembersihan teks, tokenisasi, normalisasi, ekstraksi fitur, pembangunan model, dan evaluasi model (Jurafsky, Daniel & Martin, 2001). 1. Pembersihan Teks Text cleaning adalah langkah awal dalam pengolahan data teks yang bertujuan untuk menghilangkan elemen-elemen yang tidak relevan atau mengganggu dari teks mentah sehingga dapat dianalisis lebih lanjut dengan lebih mudah dan akurat. Tujuan dari text cleaning adalah untuk meningkatkan kualitas data teks dengan menghapus noise, memperbaiki kesalahan, dan menyatukan format teks. Proses text cleaning melibatkan beberapa teknik, seperti menghapus tanda baca, mengubah teks menjadi huruf kecil, menghapus stopwords (kata-kata umum yang tidak memiliki makna signifikan), serta melakukan stemming dan lemmatization untuk mengurangi kata-kata ke bentuk dasarnya. a. Penghapusan Tanda Baca Penghapusan tanda baca, atau yang dikenal dengan ‚Punctuation Removal‛, adalah salah satu langkah penting dalam text cleaning yang bertujuan untuk menghilangkan karakter-karakter tanda baca seperti titik, koma, tanda seru, tanda tanya, dan sebagainya dari teks. Tujuan utama dari punctuation removal adalah untuk mengurangi noise yang tidak memberikan kontribusi signifikan terhadap analisis


65 teks dan dapat mengganggu proses pemrosesan lanjutan seperti tokenisasi atau ekstraksi fitur. Proses ini dilakukan dengan cara mengidentifikasi dan menghapus semua karakter tanda baca dari teks, sehingga hanya menyisakan kata-kata yang bermakna. Contohnya, kalimat "Hello, Alvaro! Welcome to the world of NLP." setelah melalui proses punctuation removal akan menjadi "Hello Alvaro Welcome to the world of NLP". Dengan menghapus tanda baca, teks menjadi lebih bersih dan lebih mudah untuk dianalisis lebih lanjut oleh model NLP. Penghapusan tanda baca penting terutama dalam aplikasi seperti analisis sentimen, di mana tanda baca sering kali tidak memberikan informasi tambahan yang signifikan dan bisa diabaikan untuk memfokuskan analisis pada katakata dan frasa penting. Pengubahan Huruf b. Mengubah huruf Mengubah teks menjadi huruf kecil, atau ‚Lowercasing‛, adalah langkah dasar dalam text cleaning yang bertujuan untuk memastikan konsistensi dalam pengolahan teks. Tujuan utama dari lowercasing adalah untuk menghindari kesalahan dalam analisis yang disebabkan oleh perbedaan huruf besar dan kecil yang sebetulnya merujuk pada kata yang sama. Dengan mengubah semua karakter teks menjadi huruf kecil, model NLP dapat memproses teks dengan lebih efisien dan akurat, menghindari duplikasi yang tidak perlu dalam representasi kata. Proses lowercasing dilakukan dengan cara mengonversi setiap huruf besar dalam teks menjadi


66 huruf kecil. Misalnya, kalimat "Kami Pergi Ke Danau Toba Bersama Menikmati Keindahan Alam Kaldera" setelah melalui proses lowercasing akan menjadi "kami pergi ke danau toba bersama menikmati keindahan alam kaldera". Dengan menyatukan format huruf, teks menjadi lebih seragam dan memudahkan langkah-langkah selanjutnya dalam analisis teks seperti tokenisasi dan ekstraksi fitur. Proses ini sangat penting dalam aplikasi seperti pencarian informasi dan analisis teks, dimana perbedaan kecil dalam format huruf dapat mempengaruhi hasil analisis secara signifikan. c. Menghapus kata umum yang tidak bermakna signifikan Penghapusan stopwords, atau yang dikenal dengan ‚Stopword Removal‛, adalah langkah dalam text cleaning yang bertujuan untuk menghilangkan kata-kata umum yang tidak memberikan nilai tambah signifikan dalam analisis teks. Stopwords seperti "yang", "dan", "di", "ke", "dari", dan lain-lain sering muncul dalam teks tetapi tidak memiliki makna penting dalam konteks tertentu. Tujuan utama dari stopword removal adalah untuk mengurangi dimensi data dan meningkatkan efisiensi pemrosesan teks dengan menghapus kata-kata yang tidak relevan. Proses ini dilakukan dengan cara mengidentifikasi dan menghapus stopwords dari teks berdasarkan daftar kata-kata yang telah ditentukan sebelumnya. Misalnya, kalimat "Sang kancil yang cerdik berhasil lolos dari buaya yang lapar" setelah melalui proses


67 stopword removal akan menjadi "kancil cerdik berhasil lolos buaya lapar". Dengan menghapus stopwords, teks yang dihasilkan menjadi lebih ringkas dan fokus pada kata-kata yang lebih bermakna dan informatif. Stopword removal sangat penting dalam aplikasi seperti analisis sentimen, ekstraksi informasi, dan clustering teks, di mana keberadaan stopwords bisa mengaburkan informasi penting dan mengurangi akurasi hasil analisis. d. Stemming dan Lemmatization Stemming dan Lemmatization (Balakrishnan and Lloyd-Yemoh, 2014) merupakan tahap di mana kata akan diubah ke dalam bentuk dasarnya. Terdapat Stemming memotong akhiran kata untuk menemukan bentuk dasar. Akar kata tidak perlu diidentifikasi ke akar morfologis asli kata tersebut dan biasanya sudah cukup terkait melalui kata-kata yang terpetakan ke akar kata yang serupa (Khadim, 2018). Sedangkan dalam Lemmatization, bagian-bagian terinfleksi dari sebuah kata akan disatukan sehingga mereka dapat dikenali sebagai satu elemen tunggal, yang disebut lemma kata atau bentuk kosakata-nya (Balakrishnan and Llyod-Yemoh, 2014). Proses lemmatization mempertimbangkan konteks kata dan menggunakan kamus bahasa untuk mengidentifikasi dan mengubah kata-kata ke bentuk dasar mereka. Ini melibatkan penghapusan awalan atau akhiran kata serta pemrosesan tambahan untuk menangani variasi kata-kata dalam bahasa.


68 Dalam kasus stemming, misalnya kita diberikan kalimat "Mereka sedang menonton film di bioskop‛. Dalam stemming, kita akan mencoba untuk menghilangkan awalan atau akhiran kata untuk mendapatkan bentuk dasar. Hasil yang didapatkan adalah: "Mereka sedang nonton film di bioskop." Kata "menonton" diubah menjadi "nonton" dengan menghilangkan awalan "me-", sehingga kalimat menjadi: "Mereka sedang nonton film di bioskop.". Namun ‘nonton’ bukanlah bentuk asli dari kata tersebut. Sedangkan dalam proses Lemmatization, kata ‚menonton‛ akan diubah ke dalam bentuk aslinya. Sehingga: 1) Kalimat asli: "Mereka sedang menonton film di bioskop." 2) Hasil stemming: "Mereka sedang tonton film di bioskop." Dalam contoh ini, tahapan Lemmatization akan menghilangkan awalan "men-" dari kata "menonton" untuk menghasilkan bentuk dasarnya, yaitu "tonton". 2. Tokenisasi Tokenisasi (Ofer, Brandes and Linial, 2021)atau yang dikenal juga sebagai Lexical Analysis merupakan proses memecah teks menjadi unit-unit yang lebih kecil yang disebut dengan ‘token’. Token ini dapat berupa kata, frasa, atau simbol, tergantung pada tujuan analisis.


69 Sebagai contoh, terdapat sebuah kalimat ‚Saya makan nasi goreng‛. Dalam tahap tokenisasi, kalimat ini akan dipecah menjadi token berdasarkan spasi, sehingga menjadi ‚Saya‛, ‚makan‛, ‚nasi‛, dan ‚goreng‛. Berikut merupakan pemaparan tahapan tokenisasi: a. Input pengguna: Saya makan nasi goreng. b. Proses Tokenisasi: ‚Saya‛, ‚makan‛, ‚nasi‛, ‚goreng‛. c. Hasil Tokenisasi: *‚Saya‛, ‚makan‛, ‚nasi‛, ‛goreng‛+ 3. Normaliasi Normalisasi adalah langkah penting dalam proses text cleaning yang bertujuan untuk mengubah teks menjadi format yang konsisten dan standar. Normalisasi membantu memastikan bahwa variasi dalam penulisan kata tidak mengganggu analisis lebih lanjut dan model NLP dapat bekerja dengan data yang lebih bersih dan seragam. Dua metode utama dalam normalisasi adalah penanganan kontraksi (handling contractions) dan koreksi ejaan (spelling correction). Handling Contractions atau penanganan kontraksi melibatkan mengubah bentuk singkat dari kata-kata yang digabungkan menjadi bentuk lengkapnya. Kontraksi seperti "don't" (do not), "can't" (cannot), dan "I'm" (I am) sering digunakan dalam bahasa seharihari, tetapi bisa menambah kompleksitas dalam analisis teks jika tidak diubah menjadi bentuk lengkap. Misalnya, kalimat "I'm not sure if they can't


70 come" setelah penanganan kontraksi menjadi "I am not sure if they cannot come". Dengan mengubah kontraksi menjadi bentuk lengkap, teks menjadi lebih konsisten dan lebih mudah untuk dianalisis oleh model NLP, mengurangi potensi kesalahan dalam pemahaman konteks dan makna. Spelling Correction atau koreksi ejaan adalah proses mengidentifikasi dan memperbaiki kesalahan ejaan dalam teks. Kesalahan ejaan bisa terjadi karena berbagai alasan, seperti kesalahan ketik, kurangnya pengetahuan tentang ejaan yang benar, atau penggunaan dialek tertentu. Koreksi ejaan membantu memastikan bahwa kata-kata dieja dengan benar, sehingga model NLP dapat mengenali dan memprosesnya dengan lebih akurat. Misalnya, dalam teks "Ths is a smple text with sme spelling erors", setelah koreksi ejaan menjadi "This is a simple text with some spelling errors". Koreksi ejaan meningkatkan kualitas teks dan memastikan bahwa kesalahan ejaan tidak mengganggu analisis dan pemrosesan lebih lanjut. Dengan normalisasi yang efektif melalui penanganan kontraksi dan koreksi ejaan, teks menjadi lebih seragam dan bersih, memudahkan langkah-langkah selanjutnya dalam pengolahan dan analisis teks. Hal ini sangat penting dalam aplikasi NLP seperti analisis sentimen, ekstraksi informasi, dan sistem tanya jawab, di mana kualitas dan konsistensi teks sangat mempengaruhi hasil akhir.


71 4. Ekstraksi Fitur Ekstraksi Fitur adalah tahap penting dalam pengolahan data teks yang bertujuan untuk mengubah teks mentah menjadi representasi numerik yang dapat digunakan oleh algoritma machine learning. Proses ini mengidentifikasi dan mengekstrak informasi penting dari teks yang kemudian digunakan untuk analisis lebih lanjut. Ada beberapa teknik utama dalam ekstraksi fitur, termasuk Bag of Words (BoW), Term Frequency-Inverse Document Frequency (TF-IDF), dan word embeddings. Bag of Words (BoW) metode ini melibatkan representtasi teks sebagai kumpulan kata-kata unik yang ada dalam dokumen, tanpa memperhatikan urutan kata. Setiap dokumen diubah menjadi vektor yang mencatat frekuensi kemunculan masing-masing kata dalam dokumen tersebut. Misalnya, untuk dua kalimat "The cat sat on the mat" dan "The dog sat on the log", daftar kata uniknya adalah ["the", "cat", "sat", "on", "mat", "dog", "log"], dan masing-masing dokumen akan diwakili oleh vektor yang mencatat frekuensi kata-kata tersebut. Term Frequency-Inverse Document Frequency (TF-IDF) adalah teknik yang lebih canggih yang mengukur kepentingan suatu kata dalam dokumen relatif terhadap seluruh koleksi dokumen. TF mengukur seberapa sering sebuah kata muncul dalam dokumen, sementara IDF mengurangi bobot kata-kata yang umum muncul di banyak dokumen. Misalnya, jika kata "the" muncul di semua dokumen, IDF-nya


72 akan rendah, mengurangi pengaruhnya dalam analisis. Kombinasi TF dan IDF memberikan representasi yang lebih bermakna dan membantu dalam mengidentifikasi kata-kata yang benar-benar penting. Word Embeddings menghasilkan representasi vektor yang menangkap makna dan hubungan antar kata dalam ruang dimensi tinggi. Model seperti Word2Vec, GloVe, dan BERT mengubah kata-kata menjadi vektor-vektor yang mencerminkan konteks penggunaan kata tersebut dalam dokumen. Misalnya, dalam model Word2Vec, kata-kata "king", "queen", "man", dan "woman" akan memiliki vektor yang merefleksikan hubungan semantik mereka, sehingga operasi vektor seperti "king" - "man" + "woman" mendekati "queen". Dengan menggunakan teknik-teknik ekstraksi fitur ini, teks mentah dapat diubah menjadi format numerik yang dapat dianalisis oleh model machine learning, memungkinkan analisis yang lebih mendalam dan aplikasi yang lebih efektif seperti klasifikasi teks, analisis sentimen, dan sistem rekomendasi. Ekstraksi fitur yang tepat dan efektif sangat penting untuk memastikan bahwa model NLP dapat memahami dan memproses teks dengan akurasi tinggi. 5. Pembangunan Model Pembangunan model dalam NLP melibatkan serangkaian langkah sistematis untuk menciptakan model yang mampu menganalisis dan memahami


73 teks. Langkah pertama adalah persiapan data, di mana data dibagi menjadi training set, validation set, dan test set untuk memastikan model dapat generalisasi dengan baik. Selanjutnya, algoritma yang tepat dipilih berdasarkan tugas yang diinginkan, seperti Naive Bayes untuk klasifikasi teks atau neural networks untuk tugas yang lebih kompleks. Model kemudian dilatih menggunakan training set, di mana parameterparameter internalnya disesuaikan melalui iterasi untuk meminimalkan kesalahan prediksi. Setelah pelatihan, penyempurnaan hyperparameter dilakukan dengan validation set untuk menemukan kombinasi terbaik yang meningkatkan kinerja model. Evaluasi model menggunakan test set membantu memastikan akurasi dan kemampuan generalisasi melalui metrik seperti akurasi, precision, dan F1-score. Langkah terakhir adalah deployment, di mana model diintegrasikan ke dalam aplikasi nyata dan terus dipantau serta diperbaiki berdasarkan feedback dan data baru. Proses ini memastikan model NLP tetap relevan dan efektif dalam aplikasinya. 6. Evaluasi Model Evaluasi model dalam Natural Language Processing (NLP) adalah langkah penting untuk menilai kinerja dan efektivitas model setelah tahap pelatihan selesai. Evaluasi ini dilakukan untuk memastikan bahwa model tidak hanya bekerja dengan baik pada data pelatihan, tetapi juga dapat generalisasi pada data baru yang belum pernah dilihat sebelumnya. Proses evaluasi melibatkan penggunaan test set,


74 yang merupakan bagian dari data yang disisihkan khusus untuk tujuan ini, dan berbagai metrik evaluasi untuk mengukur kinerja model dari berbagai aspek. Beberapa metrik evaluasi yang umum digunakan dalam NLP meliputi akurasi, yang mengukur persentase prediksi yang benar; precision, yang mengukur proporsi prediksi positif yang benar-benar positif; recall, yang mengukur proporsi kejadian positif yang benar-benar teridentifikasi oleh model; dan F1-score, yang merupakan rata-rata harmonis dari precision dan recall. Selain itu, AUC-ROC digunakan untuk mengevaluasi performa model dalam diskriminasi antara kelas positif dan negatif. Melalui evaluasi ini, kita dapat menentukan seberapa baik model memenuhi tujuan analisis dan apakah ada kebutuhan untuk penyesuaian lebih lanjut atau pelatihan ulang untuk meningkatkan kinerjanya. D. Implementasi AI dalam pembuatan Teks Natural Language Processing (NLP) telah menghasilkan berbagai aplikasi yang secara signifikan meningkatkan interaksi antara manusia dan komputer. Contoh penerapannya meliputi chatbots yang dapat men-jawab pertanyaan pelanggan dengan cepat dan akurat, sistem penerjemahan otomatis yang memungkin-kan komunikasi lintas bahasa tanpa hambatan, serta analisis sentimen yang membantu perusahaan memahami umpan balik pelanggan melalui media sosial. Di sektor kesehatan, NLP digunakan untuk menganalisis catatan medis elektronik guna meningkatkan diagnosis dan perawatan pasien.


75 Dalam pendidikan, aplikasi NLP seperti penilaian otomatis dan pembelajaran adaptif memberikan pengalaman belajar yang lebih personal dan efisien. Penerapan NLP ini menunjukkan bagaimana teknologi dapat mempermudah dan memperkaya berbagai aspek kehidupan kita. NLP telah menemukan berbagai aplikasi praktis yang mengubah cara kita berinteraksi dengan teknologi dan memproses informasi: 1. Chatbots dan Asisten Virtual (Izadi and Forouzanfar, 2024): Sistem yang dapat berinteraksi dengan pengguna melalui percakapan alami, seperti Siri, Alexa, dan Google Assistant. 2. Penerjemahan Otomatis (Abidin et al., 2023; Pourkamali and Sharifi, 2024): Layanan seperti Google Translate yang dapat menerjemahkan teks dari satu bahasa ke bahasa lain. 3. Analisis Sentimen (Kurniawan and Maharani, 2020): Alat yang digunakan untuk menganalisis umpan balik pelanggan atau postingan media sosial untuk menentukan perasaan atau opini yang diekspresikan. 4. Penulisan Otomatis (Amirullah, Aulia and Arisandy, 2020; Christina; Aulia and Purnamawati, 2023b): Sistem yang dapat menghasilkan teks, seperti artikel berita, laporan, atau deskripsi produk secara otomatis. 5. Pengelompokan Dokumen (Amalia et al., 2020): Alat yang mengelompokkan dokumen berdasarkan topik atau kategori tertentu, memudahkan pencarian dan pengorganisasian informasi.


76 Kecerdasan Buatan dalam Gambar dan Video Nurul Ilmi, S.Kom.,M.T emrosesan gambar dan video adalah salah satu bidang dan industri yang berubah karena Kecerdasan Buatan. Mesin sekarang dapat menganalisis dan memahami gambar dan video dengan cara yang sebelumnya hanya dapat dilakukan manusia karena kemajuan dalam teknologi AI. Mesin dapat belajar menjelaskan gambar dengan cara yang sama seperti otak kita dan menganalisis gambar dengan lebih teliti daripada yang kita bisa. Pada Bab ini akan dijelaskan bagaimana AI digunakan dalam analisis gambar dan video. A. Computer Vision Computer vision merupakan bagian dari kecerdasan buatan (AI) dan bidang ilmu komputer yang berusaha untuk mengembangkan metode yang memungkinkan komputer untuk mengerti, menganalisis, dan menafsirkan data dari gambar dan video dengan menggunakan teknik P


77 dan algoritma komputer. Ini melibatkan pemrosesan gambar digital, pengenalan pola, dan pembelajaran mesin untuk memahami dan menganalisis isi visual (Wiley & Lucas, 2018). Computer Vision bertujuan utama untuk menciptakan model dan menarik data serta informasi dari gambar dan video. Oleh karena itu, Computer Vision dapat membuat komputer untuk "memvisualisasikan" dunia visual seperti manusia, dan digunakan dalam berbagai aplikasi seperti identifikasi objek, pencarian pola, navigasi otonom, pengolahan medis, dan sebagainya. Computer Vision terbagi menjadi beberapa komponen utama yang melibatkan berbagai aspek dalam menganalisis dan memproses gambar. Beberapa aspek dari Computer Vision, yaitu: 1. Pengambilan Gambar: Proses pengambilan gambar dari sumber – sumber yang berda seperti kamera atau sensor, yang kemudian akan dianalisis. 2. Pra-Pemrosesan Gambar: Tahap di mana gambar disempurnakan dan ditingkatkan kualitasnya sebelum dianalisis lebih lanjut. 3. Ekstraksi Ciri: menentukan ciri atau pola yang penting dalam gambar yang dapat dimanfaatkan untuk dianalisis lebih lanjut. 4. Deteksi Objek: mendeteksi keberadaan dan Lokasi objek dari sebuah gambar 5. Pengenalan Pola: mengidentifkasi dan mengklasifikasikan pola yang ada pada gambar


78 6. Pemisahan Objek: Proses membagi gambar menjadi bagian yang lebih kecil untuk dianalisis lebih lanjut 7. Analisis Video: Proses Analisis dan pengolahan video guna memperoleh informasi yang bermanfaat. Setiap elemen memiliki fungsi yang krusial dalam memahami dan memproses informasi visual dari gambar dan video. Untuk lebih memahami, beberapa elemen dijelaskan lebih lanjut pada bab ini. B. Pra-pemrosesan Gambar Pra-pemrosesan gambar adalah bidang teknik yang berkonsentrasi pada analisis dan manipulasi gambar digital dengan tujuan tertentu. Pra-pemrosesan gambar dapat dianggap sebagai bagian dari proses computer vision yang lebih besar, di mana hasil dari pra-pemrosesan gambar digunakan oleh computer vision untuk memahami dan menganalisis gambar digital. Gambar digital merupakan visualisasi dari suatu objek atau panorama dalam bentuk dua dimensi yang direpresentasikan oleh data digital, yang berarti, gambar terdiri dari elemen–elemen terpisah yang disebut piksel. Setiap piksel mempunyai nilai intensitas atau tingkat keabuan yang spesifik. Piksel-piksel ini dibentuk dalam susunan matriks dua dimensi yang mewakili gambar (Gonzalez & Woods, 2008). Kita bisa merepresentasikan piksel sebagai titik terkecil dari sebuah gambar digital. Untuk lebih jelasnya dapat dilihat pada gambar 1.


79 Gambar 1. Contoh Piksel dalam Gambar Digital Dengan bantuan kecerdasan buatan, piksel pada gambar digital dapat dimanipulasi dan diproses menggunakan teknik prapemrosesan gambar digital untuk tujuan seperti peningkatan kualitas, kompresi gambar, atau manipulasi gambar. Ini dilakukan agar gambar yang tersedia lebih bersih dan terstruktur sehingga lebih siap untuk dianalisis lebih lanjut, serta membantu menangani variasi dalam data visual, seperti perubahan cahaya dan sudut pandang. Terdapat beberapa teknik dalam kecerdasan buatan yang digunakan dalam prapemrosesan gambar: 1. Penghapusan noise (noise removal) Penghapusan noise adalah proses menghilangkan atau mengurangi noise pada foto digital. Kebisingan dapat berasal dari berbagai sumber seperti sensor kamera, kondisi pencahayaan, atau kompresi gambar. Terdapat beberapa Algoritma yang biasa digunakan dalam penghapusan noise (Gonzalez & Woods, 2008). Pertama, mean filtering, yaitu teknik pemulusan sederhana di mana nilai setiap piksel pada suatu gambar diganti dengan rata-rata nilai piksel di sekitar-


80 nya. Kedua, Median filtering adalah teknik penghalusan yang mengganti nilai setiap piksel dengan median nilai di sekitar piksel tersebut. Ketiga, gaussian filtering untuk memperhalus gambar dengan menerapkan fungsi Gaussian pada gambar untuk mengurangi noise. Keempat, Transformasi wavelet adalah teknik yang menguraikan gambar menjadi komponen frekuensi berbeda, sehingga memungkinkan pengurangan noise dengan menghilangkan koefisien wavelet yang sesuai dengan frekuensi noise. a. Normalisasi Pencahayaan Normalisasi pencahayaan adalah proses mengurangi atau menghilangkan efek variasi cahaya pada suatu gambar sehingga fitur-fitur penting pada gambar dapat dianalisis dengan lebih mudah. Teknik ini sangat penting dalam aplikasi computer vision dan pemrosesan gambar karena perubahan pencahayaan dapat mempengaruhi kinerja algoritma pengenalan pola dan klasifikasi. Terdapat beberapa teknik AI yang sering digunakan. Pertama, Histogram Equalization, yaitu metode yang meningkatkan kontras keseluruhan gambar dengan menyebarkan nilai intensitas piksel gambar sehingga histogramnya rata (Pizer & et al, 1987). Kedua, bagian dari Histogram Equalization, yiatu Adaptive Histogram Equalization (Jayanthiladevi, et al., 2020). Metode ini lebih baik untuk gambar dengan variasi pencahayaan yang tinggi karena bekerja pada bagian kecil (subregion) gambar. Ketiga, CLAHE (Contrast Limited Adaptive Histogram


81 Equalization), versi AHE yang membatasi amplifikasi kontras untuk menghindari penguatan noise yang berlebihan dalam gambar. b. Segmentasi Gambar Segmentasi Gambar adalah proses pembagian gambar digital menjadi beberapa area atau segmen tertentu dengan tujuan untuk menyederhanakan atau mengubah representasi gambar sehingga lebih sederhana dan lebih mudah dianalisis. Segmentasi gambar mengekstrak objek dan batas dalam gambar, seperti kurva, garis, dan objek individual. Terdapat beberapa teknik AI yang sering digunakan dalam segmentasi gambar. Pertama, metode yang paling sederhana dalam segmentasi, yaitu Thresholding, di mana piksel gambar dibagi menjadi beberapa kelompok berdasarkan intensitasnya (Otsu, 1979). Kedua, Teknik clustering yang dikenal sebagai "Kmeans" mengelompokkan piksel gambar ke dalam kluster K berdasarkan kemiripan warna atau intensitas (Hartigan & Wong, 1979). Ketiga, Edge Detection, metode yang digunakan dengan cara pencarian tepi atau batas objek dalam gambar melalui perubahan intensitas yang signifikan (Canny, 1986). C. Pengenalan Pola Salah satu alat penting dalam set alat visi komputer adalah pengenalan pola, yang memungkinkan komputer untuk menemukan dan memahami pola dalam data visual. Pengenalan pola adalah cara untuk mengenali dan


82 mengelompokkan pola atau objek dalam gambar berdasarkan ciri khususnya dengan menggunakan algoritma yang sesuai untuk mendetekasi dan mengelompokkan pola yang sudah diketahui dalam gambar atau video (Gonzalez & Woods, 2008). Hal ini memungkinan Komputer dapat melakukan hal-hal seperti pengenalan wajah, deteksi objek, pengelompokan gambar, dan memahami konteks video. Secara umum,tahap penting dalam pengenalan pola setelah tahap pra-pemrosesan gambar yaitu ektraksi ciri dan klasifikasi (Elie, 2013). Pada tahap ekstraksi ciri, dataset diubah menjadi sekumpulan vector ciri yang diharapkan dapat mewakili data aslinya. Lalu, cir – ciri ini digunakan pada tahap klasifikasi untuk mengelompokkan ciri ke dalam kelas–kelas berbeda. Terdapat beberapa teknik kecerdasan buatan yang umum digunakan dalam pattern recognition (Feng & Hua, 2020): 1. Jaringan Saraf Tiruan, yaitu model komputasi yang terinspirasi dari struktur jaringan saraf manusia disebut jaringan saraf tiruan. Pengenalan pola menggunakannya untuk mempelajari pola data yang kompleks dan non-linear. 2. Support Vector Machines, yaitu teknik pembelajaran mesin untuk klasifikasi dan regresi yang efektif dalam memisahkan kelas data yang berbeda dengan menggunakan hyperplanes di ruang fitur. 3. Decision Tree, yaitu model prediktif yang menggunakan struktur pohon untuk memetakan ciri.


83 Pengenalan pola menggunakannya untuk klasifikasi dan regresi. D. Analisis Video Analisis video melibatkan pemrosesan dan interpretasi konten video untuk memahami dan mengekstrak informasi dari video menggunakan teknik computer vision, pembelajaran mesin, dan algoritma pemrosesan video sehingga dapat menganalisis elemen seperti wajah, objek, gerakan, dan konten lainnya dalam video. Tujuannya adalah untuk memahami apa yang terjadi dalam video, mengekstrak fitur dan metadata yang relevan, dan memungkinkan aplikasi tingkat lanjut seperti pengindeksan, penelusuran, dan pemahaman konten video (Jayanthiladevi, et al., 2020). Analisis video dengan bantuan kecerdasan buatan juga dapat melakukan otomasi dan meningkatkan efisiensi dalam berbagai aplikasi seperti keamanan, transportasi, kesehatan dan sebagainya. Pada dasarnya, video adalah kumpulan gambar (frame) yang ditampilkan secara berurutan dengan kecepatan yang berbeda. Sehingga, kita dapat menyelesaikan masalah yang lebih kompleks dalam analisis video dengan menggunakan pengetahuan dan metode dari analisis gambar. Terdapat beberapa teknik AI yang digunakan dalam analisis video (Jayanthiladevi, et al., 2020), yaitu


84 1. Object Detection Object Detection adalah proses identifikasi dan menemukan objek dalam gambar atau video. Dengan menggunakan algoritma AI, objek dideteksi dan menempatkan bingkai (kotak pembatas) di sekitar objek yang terdeteksi dalam gambar atau video. Beberapa algoritma yang popular dalam object detection yaitu R-CNN (Region with Convolutional Neural Network), YOLO (You Only Look Once), dan SSD (Single Shot MultiBox Detector). R-CNN menggunakan algoritme proposal wilayah untuk menyarankan area di mana objek mungkin ada, kemudian menggunakan jaringan saraf tiruan untuk mengklasifikasikan dan menemukan lokasi objek di area tersebut. Sedangkan, YOLO menggunakan pendekatan unik untuk memprediksi kotak pembatas dan kelas fitur dalam satu langkah. Seperti YOLO, SSD juga menggunakan metode deteksi satu tembakan namun memiliki metode deteksi yang sedikit berbeda. 2. Object Tracking Object Tracking adalah proses pelacakan dan pemantauan objek tertentu dalam rangkaian gambar atau bingkai video yang berurutan. Tujuannya adalah untuk mempertahankan identitas objek yang sama dari waktu ke waktu, terlepas dari perubahan orientasi, ukuran, atau posisi objek. Terdapat beberapa pendekatan AI yang popular dalam object tracking. Pertama, Tracking by Detection, ini menggunakan algoritma deteksi objek


85 untuk mendeteksi objek di setiap frame, kemudian menggunakan teknik asosiasi untuk menghubungkan deteksi antar frame. Kedua, Correlation Filters, ini menggunakan filter korelasi yang dipelajari AI untuk melacak objek dengan cepat dan andal. Ketiga, Menggunakan RNNs, seperti Long Short-Term Memory (LSTM) networks, untuk mempelajari dan memprediksi pergerakan objek dari waktu ke waktu. Keempat, Multi-Modal Tracking, menggabungkan informasi dari berbagai sensor atau modalitas data untuk meningkatkan akurasi pelacakan. 3. Pengenalan Wajah Pengenalan wajah adalah teknologi yang menggunakan algoritma visi komputer dan pembelajaran mesin untuk mengidentifikasi dan memverifikasi identitas seseorang berdasarkan karakteristik wajahnya. Pengenalan wajah memiliki beragam aplikasi, termasuk pemantauan keamanan, identifikasi pengguna, manajemen akses dan pengalaman pengguna yang dipersonalisasi. Terdapat beberapa metode yang sering digunakan dalam pengenalan wajah. Pertama, eigenfaces, menggunakan analisis komponen utama (PCA) untuk mengurangi dimensi data wajah dan membuat representasi wajah menjadi lebih sederhana. Kedua, fisherfaces, menggunakan Analisis Diskriminan Linier untuk meningkatkan kemampuan membedakan wajah individu yang berbeda. Ketiga, Local Binary Pattern, mengkodekan tekstur lokal wajah untuk membuat representasi yang lebih detail. Keempat,


86 Deep Learning, menggunakan jaringan saraf dalam seperti jaringan saraf konvolusional untuk mempelajari fitur wajah secara otomatis dan meningkatkan akurasi pengenalan.


87 Kecerdasan Buatan dalam bidang Suara Siti Zahrotul Fajriyah, M.Kom ecerdasan buatan (Artificial Intelligence/AI) telah membawa kemajuan revolusioner di berbagai industri, termasuk pengolahan suara. Kecerdasan buatan berperan signifikan dalam meningkatkan kemampuan teknologi dalam memahami, menghasilkan dan menganalisis suara. Dalam pemrosesan suara, kecerdasan buatan menggunakan machine learning untuk mengelola aplikasi terkait ucapan seperti speech recognition, speech sythesis dan emotion recognition. Machine learning dalam kecerdasan buatan telah mempercepat kemajuan dalam automatic speech recognition (ASR) dan text-to-speech synthesis, sehingga memungkinkan interaksi manusia-mesin yang lebih alami dan efisien (Jurafsky and Martin, 2008). K


88 A. Sinyal Akustik Sinyal akustik adalah gelombang suara yang berpropagasi melalui perantara seperti udara, air, atau benda padat secara umum. Adapun sinyal suara lebih merujuk kepada gelombang suara yang dapat didengar manusia. Kedua jenis sinyal ini sangat terkait dalam bidang pemrosesan sinyal. Pemrosesan sinyal suara mengolah dan menganalisis sinyal suara menggunakan teknik untuk memahami karakteristiknya, seperti frekuensi, amplitudo, panjang gelombang, dan kecepatan gelombang. 1. Frekuensi Frekuensi adalah jumlah getaran atau siklus yang terjadi dalam satu detik, diukur dalam Hertz (Hz). Frekuensi menentukan nada suara. Seperti perbedaan frekuensi nada tinggi dan rendah pada Wanita, anakanak dan pria dewasa (Zölzer, 2011). 2. Amplitudo Amplitudo mengukur kekuatan atau tekanan gelombang suara yang menentukan volume, diukur dalam desibel (dB). Amplitudo tinggi berarti suara keras; amplitudo rendah berarti suara lembut (Smith, 2007). 3. Panjang Gelombang Panjang gelombang berbanding terbalik dengan frekuensi. Panjang gelombangn adalah jarak antara dua titik berturut-turut yang berada pada fase yang sama dalam siklus gelombang suara. Gelombang suara dengan frekuensi tinggi memiliki panjang


89 gelombang yang lebih pendek, sedangkan gelombang dengan frekuensi rendah memiliki panjang gelombang yang lebih panjang (Pierce, 2019). 4. Kecepatan Gelombang (Wave Speed) Kecepatan gelombang suara bergantung pada medium, karena dipengaruhi kepadatan dan elastisitas medium. Seperti di udara, kecepatannya sekitar 343 m/s, di air sekitar 1.480 m/s (Rossing, 2014). B. Tahapan Pemrosesan Sinyal Suara Pemrosesan sinyal suara memerlukan mekanisme sistematis untuk dapat menghasilkan dan mepersepsi sinyal. Oleh karena itu, diperlukan tahapan pemrosesan sinyal untuk membuat komputer dan mesin mampu menangkap getaran bunyi tersebut sebagai sinyal suara dan memperoleh informasi penting dari sinyal tersebut. Adapun tahapan dalam pemrosesan suara adalah sebagai berikut. Gambar 1. Tahap Pemrosesan Suara 1. Akuisisi Sinyal Akuisisi sinyal dalam pemrosesan suara dimulai dengan mengubah getaran suara menjadi sinyal listrik menggunakan transduser seperti mikrofon. Mikrofon me-nangkap gelombang suara dan mengonversinya menjadi sinyal analog, lalu didigitalkan dengan konverter analog-ke-digital (ADC), untuk pemrosesan


90 digital lebih lanjut, sehingga meningkatkan efisiensi dan akurasi (Vincent et al., 2018). 2. Praproses Tahap praproses sinyal suara mempersiapkan sinyal sebelum analisis lebih lanjut melalui langkahlangkah seperti filtrasi untuk menghilangkan noise, normalisasi untuk menyesuaikan amplitudo, dan framing serta windowing untuk membagi sinyal menjadi segmen-segmen pendek. Teknik windowing seperti Hamming atau Hanning mencegah kebocoran spektral, memastikan analisis frekuensi yang akurat. (Hansen and Hasan, 2015). 3. Transformasi Sinyal Transformasi sinyal mengubah sinyal dari domain waktu ke domain frekuensi untuk mengungkap karakteristik spektral dan temporal. Teknik umum seperti Fast Fourier Transform (FFT) dan Transformasi Wavelet mengidentifikasi fitur penting dalam sinyal, meningkatkan kualitas dan akurasi pemrosesan suara dalam berbagai aplikasi seperti pemisahan suara dan audio enhancement. (Stöter et al., 2018). 4. Ekstraksi Fitur Tahap ekstraksi fitur dalam pemrosesan sinyal suara mengisolasi dan mengidentifikasi karakteristik signifikan untuk analisis lebih lanjut. Teknik umum meliputi Mel-Frequency Cepstral Coefficients (MFCC), yang efektif dalam pengenalan suara karena kemampuannya menangkap fitur frekuensi penting. Linear


Click to View FlipBook Version