188betitalia

<ウェブサイト名>

<現在の時刻>

出典: 標準

研究者データベース 研究者詳細 ホーム English このページはJavascriptを使用しています。すべての機能を使用するためにはJavascript を有効にする必要があります。   基本情報   基本情報   学位   研究分野   研究活動   論文   MISC   講演・口頭発表等   科研費(文科省・学振・厚労省)獲得実績   研究・技術シーズ 2024/04/17 更新 椋木 雅之 (ムクノキ マサユキ) MUKUNOKI Masayuki 所属 工学教育研究部 工学科情報通信工学プログラム担当 職名 教授 外部リンク このページの先頭へ▲ 学位 【 表示 / 非表示 】 このページの先頭へ▲ 学位 【 表示 / 非表示 】 博士(工学) ( 1999年7月   京都大学 ) このページの先頭へ▲ 研究分野 【 表示 / 非表示 】 このページの先頭へ▲ 研究分野 【 表示 / 非表示 】 情報通信 / 知覚情報処理 情報通信 / 知能情報学 このページの先頭へ▲   論文 【 表示 / 非表示 】 このページの先頭へ▲ 論文 【 表示 / 非表示 】 Development of a system to detect eye misalignment by using an Arm Cooperative Manipulators HMD equipped with eye-tracking capability 査読あり Takatsuka Kayoko, Nagatomo Yoki, Uchida Noriyuki, Ikeda Takuya, Mukunoki Masayuki, Okazaki Naonobu Journal of Robotics, Networking and Artificial Life   10 ( 1 )   17 - 24   2023年6月  詳細を見る 記述言語:英語   掲載種別:研究論文(学術雑誌)   出版者・発行元:株式会社 ALife Robotics   This study aimed to reduce the effect of the examining environment on accuracy by using an eye movement detection system, a VR head-mounted display. We reproduced the inspection environment in a virtual reality environment and performed the cover test, a basic inspection technique for tropia and phoria. We then developed a system that uses eye data collected by eye tracking to detect the directions and magnitudes of eye misalignment. The Maddox method, an existing testing procedure, was used to verify the accuracy. We have confirmed its effectiveness in detecting the directions and magnitudes of horizontal eye misalignment. DOI: 10.57417/jrnal.10.1_17 Scopus CiNii Research リレーアタック耐性とボット耐性の両立を目指したインタラクティブな動画CAPTCHAの提案と評価 査読あり 油田 健太郎, 臼崎 翔太郎, 山場 久昭, 片山 徹郎, 椋木 雅之, 朴 美娘, 岡崎直宣 情報処理学会論文誌   62 ( 12 )   1864 - 1878   2021年12月  詳細を見る 記述言語:日本語   掲載種別:研究論文(学術雑誌)   Development of a system to detect eye position abnormality based on eye-tracking 査読あり Uchida N., Takatuka K., Yamaba H., Mukunoki M., Okazaki N. Journal of Robotics, Networking and Artificial Life   8 ( 3 )   205 - 210   2021年12月  詳細を見る 記述言語:英語   掲載種別:研究論文(学術雑誌)   出版者・発行元:Journal of Robotics, Networking and Artificial Life   In previous research, we developed a method to automate the conventional evaluation of eye misalignment (cover test) and distinguish misaligned eyes from their movements. However, this method had the problem that vertical eye movements were affected by the eyelids and eyelashes, and could not be completely detected. To solve this problem, we have developed another method to recognize abnormalities by observing only the movement near the center of the pupil. DOI: 10.2991/jrnal.k.210922.011 Scopus Proposal and evaluation for color constancy CAPTCHA 査読あり Usuzaki S., Aburada K., Yamaba H., Katayama T., Mukunoki M., Park M., Okazaki N. Artificial Life and Robotics   26 ( 3 )   291 - 296   2021年3月  詳細を見る 記述言語:英語   掲載種別:研究論文(学術雑誌)   出版者・発行元:Artificial Life and Robotics   CAPTCHAs are technologies that distinguish humans and bot to prevent illegal access. Unfortunately, current CAPTCHAs, even the latest Google reCAPTCHA, have already broken with high accuracy. Although the devices, including emphasizing the distortion of the text and adding noise to the image, improve the machine resistance, they may decrease the accessibility of the web page. The purpose of this study is to propose a new CAPTCHA that can decrease the machine resistance while keeping usability. To achieve this purpose, we focused on color constancy. Color constancy is a human’s characteristic that enables humans to recognize the original color of the object by ignoring the effects of illumination light. Color constancy has not been fully reproduced by the program yet. We proposed color constancy CAPTCHA that the user is required to answer an original color of the object in a specified area on the CAPTCHA image with a color filter. In this paper, we created a prototype of CAPTCHA, applied two kinds of color filters, and then evaluated each case for the human success rate, machine success rate, and usability. DOI: 10.1007/s10015-021-00679-x Scopus FMD-VS: A virtual sensor to index FMD virus scattering 査読あり Takatsuka K., Sekiguchi S., Yamaba H., Aburada K., Mukunoki M., Okazaki N. PLoS ONE   15 ( 9 September )   2020年9月  詳細を見る 記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)   出版者・発行元:PLoS ONE   © 2020 Takatsuka et al. This is an open access article distributed under the terms of the Creative Commons Attribution License, which permits unrestricted use, distribution, and reproduction in any medium, provided the original author and source are credited. Foot-and-mouth disease (FMD) models—analytical models for tracking and analyzing FMD outbreaks—are known as dominant tools for examining the spread of the disease under various conditions and assessing the effectiveness of countermeasures. There has been some remarkable progress in modeling research since the UK epidemic in 2001. Several modeling methods have been introduced, developed, and are still growing. However, in 2010 when a FMD outbreak occurred in the Miyazaki prefecture, a crucial problem reported: Once a regional FMD outbreak occurs, municipal officials in the region must make various day-today decisions throughout this period of vulnerability. The deliverables of FMD modeling research in its current state appear insufficient to support the daily judgments required in such cases. FMD model can be an efficient support tool for prevention decisions. It requires being conversant with modeling and its preconditions. Therefore, most municipal officials with no knowledge or experience found full use of the model difficult. Given this limitation, the authors consider methods and systems to support users of FMD models who must make real-time epidemic-related judgments in the infected areas. We propose a virtual sensor, designated “FMD-VS,” to index FMD virus scattering in conditions where there is once a notion of FMD; and (2) shows how we apply the developed FMD-VS technique during an outbreak. In (1), we show our approach to constructing FMD-VS based on the existing FMD model and offer an analysis and evaluation method to assess its performance. We again present the results produced when the technique applied to 2010 infection data from the Miyazaki Prefecture. For (2), we outline the concept of a method that supports the prevention judgment of municipal officials and show how to use FMD-VS. DOI: 10.1371/journal.pone.0237961 Scopus 全件表示 >> このページの先頭へ▲ MISC 【 表示 / 非表示 】 このページの先頭へ▲ MISC 【 表示 / 非表示 】 背景モデル構築のための画像類似性と時間的スパース性を考慮した画像選択法 清水渚佐;川西康友;椋木雅之;美濃導彦 情報処理学会研究報告(CD-ROM)   2012 ( 6 )   ROMBUNNO.CVIM-186,NO.12   2013年4月  詳細を見る 記述言語:日本語   掲載種別:記事・総説・解説・論説等(学術雑誌)   J-GLOBAL “ 画像からの物体検出と物体領域分割の統合手法” Jarich Vansteenberge,椋木雅之,美濃導彦 ICT イノベーショ ン2013,2013-02   2013年  詳細を見る 記述言語:英語   掲載種別:記事・総説・解説・論説等(大学・研究所紀要)   講義室での受講生の振る舞い観測と理解度推定の研究 椋木雅之,美濃導彦 人工知能学会全国大会(第26回), 1F2-OS-11-7, pp.1-4   2012年6月  詳細を見る 記述言語:日本語   掲載種別:記事・総説・解説・論説等(学術雑誌)   写真撮影情報と観光スポットの相関分析 笠原 秀一, 森 幹彦, 椋木 雅之, 美濃 導彦 観光情報学会総会   2012年5月  詳細を見る 記述言語:日本語   掲載種別:記事・総説・解説・論説等(学術雑誌)   京都大学における Sakai 実装の現状と課題 梶田将司,元木環,椋木 雅之,平岡斉士 情処研報 CLE   2012年5月  詳細を見る 記述言語:日本語   掲載種別:記事・総説・解説・論説等(学術雑誌)   全件表示 >> このページの先頭へ▲ 講演・口頭発表等 【 表示 / 非表示 】 このページの先頭へ▲ 講演・口頭発表等 【 表示 / 非表示 】 強化学習法におけるn-step returnの改良 中根 勇樹, 片山 晋, 椋木 雅之 火の国情報シンポジウム2024  2024年3月14日   詳細を見る 開催年月日: 2024年3月13日 - 2024年3月14日 記述言語:日本語   会議種別:口頭発表(一般)   深層学習を用いた服飾品自動分類の コーディネート推薦における有効性の調査 倉永 将宏, 椋木 雅之 火の国情報シンポジウム2024  2024年3月13日   詳細を見る 開催年月日: 2024年3月13日 - 2024年3月14日 記述言語:日本語   会議種別:口頭発表(一般)   携帯端末を用いた簡便な音場測定と可視化 Adam Manato Maeda Bin Amizan, 椋木 雅之 火の国情報シンポジウム2024  2024年3月13日   詳細を見る 開催年月日: 2024年3月13日 - 2024年3月14日 記述言語:日本語   会議種別:口頭発表(一般)   Proposal of Fill in the Missing Letters CAPTCHA Using Associations from Images 国際会議 Hisaaki Yamaba, Muhammad Nur Firdaus Bin Mustaza, Shotaro Usuzaki, Kentaro Aburada, Masayuki Mukunoki, Mirang Park, Naonobu Okazaki International Conference on Genetic and Evolutionary Computing(ICGEC) 2023  2023年10月   詳細を見る 開催年月日: 2023年10月 記述言語:英語   会議種別:口頭発表(一般)   滞留状態と二段階マッチングを追加した SORT による複数小動物の同時追跡 長友 祐磨, 椋木 雅之, 高塚 佳代子 2023年度電気・情報関係学会九州支部連合大会  2023年9月7日   詳細を見る 開催年月日: 2023年9月7日 - 2023年9月8日 記述言語:日本語   会議種別:口頭発表(一般)   全件表示 >> このページの先頭へ▲ 科研費(文科省・学振・厚労省)獲得実績 【 表示 / 非表示 】 このページの先頭へ▲ 科研費(文科省・学振・厚労省)獲得実績 【 表示 / 非表示 】 深層学習による複数種類の動物に対する顔画像からの個体識別の特性比較 研究課題/領域番号:23K11151  2023年04月 - 2026年03月 独立行政法人日本学術振興会  科学研究費基金  基盤研究(C)  詳細を見る 担当区分:研究代表者  講義中の受講者の振る舞いと理解度の関係解析 2013年04月 - 2016年03月 科学研究費補助金  基盤研究(C)  詳細を見る 担当区分:研究代表者  本研究では,講義中の受講者の振る舞いから,その受講者が講義内容をどの程度理解できているかを推定することを目指す.そのために,「ビデオカメラ等で観測した受講者の振る舞いを計算機により自動的に分類する技術」「受講者に対して講義中に実施する講義の理解度アンケートや講義内容に関する小テストの結果から,受講者の理解度を客観的に推定する技術」「求めた客観的理解度を Ground Truth とみなして,分類した受講者の振る舞いとの関連を求めることで,受講者の振る舞いから客観的理解度を推定する技術」の3つの技術を開発する. このページの先頭へ▲ 研究・技術シーズ 【 表示 / 非表示 】 このページの先頭へ▲ 研究・技術シーズ 【 表示 / 非表示 】 牛顔画像による個体識別と情報提示 画像からの実物体の3次元モデル作成技術の開発 野球放送映像からの情報抽出と情報付加  詳細を見る ホームページ: 椋木研究室: 技術相談に応じられる関連分野:・画像処理,画像認識技術に関する問題一般・風景画像認識,画像検索,人物照合,映像メディア処理等のテーマも対応可能です. メッセージ:画像処理,画像認識の実応用の可能性について,情報を求めています.皆さんの抱えている問題を画像認識技術で解決できないか,といったご相談もお受け致しますので,是非,ご連絡下さい. このページの先頭へ▲   Copyright © University of Miyazaki. All Rights Reserved

アーセナルvsマンチェスターシティ バカラ - アキバギルド 池袋店 オンラインルーレット ビクトル・ネルソン
Copyright ©188betitalia The Paper All rights reserved.