Kaji Lab

KAJI LABORATORY

正式な研究室名は行動情報科学研究室です.行動をセンシングし,行動をデザインする研究室です.
スマートフォン等の各種センサを用いた屋内位置推定・行動認識技術の追求と,それに基づいた人間拡張や行動変容に資するシステムの実現を目指します.

お知らせ

見学希望者の方へ

研究室見学について

研究室見学を希望の方は下記のメールアドレスにて日程調整します.

📧 [email protected]

ayato

1 分で読めます

7/5~7 に富山国際会議場で開催された DICOMO2023 で,須崎さんと熊澤さんが発表してきました.
また須崎さんは 最優秀プレゼンテーション賞ベストカンバーサント賞を受賞しました

須崎

研究概要

最近の携帯は防水性能が上がっていますが、我々には携帯を水に近づけてはいけないと言う考えがあります。 我々は携帯を水に沈めた時でも扱える入力インタフェースを提案します。 これにより、水中では扱えない画面を押す動作を水中でもできるようになります。 その応用例として、携帯を水に沈めて遊ぶ魚の掴み取りアプリを作成しました。

感想

多くの発表と参加者の中で、2つの賞を受賞でき大変光栄に思います。 大学院に進学して得た多くの学びを生かせたと思います。

熊澤

研究概要

料理のレシピを共有する方法にはさまざまな種類があり世の中に浸透している.またレシピを利用して作成したものを報告する機能がある.しかし過去の自分や他者と調理能力や効率について比較できる仕組みがない状態である.そこで本研究ではレシピと調理動作を共有・比較し調理に対する楽しさの増加を目的とする.アプローチとしてウェアラブルセンサを使い調理作業のセンシングを行い比較するための特徴量を抽出する.研究の全体像を4つの項目「調理動作のセンシング」「調理能力と効率の分析」「分析結果の共有」「履歴や他者との比較を可視化」に分けてられる.調理動作の分析・比較を「各場所での分析と比較」と「場所移動の分析と比較」に分けて説明している.各場所での分析と比較では切る工程を例にして実際にどのような結果が得られるのかを調べた.場所移動の分析と比較ではハンバーグ調理の工程を例にして実際にどのような特徴が見られるのかを調べた.

感想

初めて県外での発表で緊張しましたが,今までの発表経験により今まで以上の発表になりました.

ayato

1 分で読めます

この度,去年度卒業された大鐘勇輝さんが2022年度の情報処理学会東海支部の学生論文奨励賞を受賞しました

大学のホームページ にも掲載されています.


受賞対象の論文

大鐘勇輝, 榎堀優, 梶克彦:BLEビーコンを用いた車椅子の自走・介助および活動量の推定手法, 情報処理学会論文誌, Vol.64, No.1, pp.145-157, 2023.

ayato

1 分で読めます

3/25~26に開催された技育CAMPマンスリーハッカソンvol.1に参加し,最優秀賞を受賞しました

作成したアプリ:叫び

発表スライド

叫びは叫ぶと画像が歪むアプリです

エンタメとしての面白さ

このアプリでは人の絶叫や歓声などの音に合わせてカメラ画像が歪みます。

機能は非常に単純で操作もしやすく、ユーザにとって煩わしい要素はありません。構成画面は一つのみで、アプリを起動して幾つかの権限を許可したらすぐに遊べます。

このアプリを使えば特定のシチュエーションにおいて、人々を楽しませられます。例えば宝くじ当選や株価の変動やゲームなどで大声をあげる人がいる場合、このアプリを使えば人々に面白さや楽しさを提供できます。

技術的面白さ

このアプリは携帯でのリアルタイム画像処理とリアルタイム音声解析を行なっています。

リアルタイム画像処理を行うために、1枚の画像処理速度を向上させる必要があります。例えば、実装当初は画像1枚を歪ませる処理に約18秒かかっていました。この状態ではリアルタイム画像処理とは言えません。しかし、さまざまな試行錯誤の結果1枚約0.03秒で処理できるようになりました。これにより、リアルタイム画像処理が実現できました。

このアプリでは人の声を解析して、声の大きさや声の高さを取得しています。しかし、Androidで声の高さや音の高さを取得できるライブラリはありません。なので音データをバッファとして取得し、その波形を解析して声の大きさや声の高さを取得しました。これにより声によって画像の歪ませ方を変えられるようになりました。

AndroidでOpenCVを使ったリアルタイム画像処理アプリを作る

kotlin使ってAudioRecordで音解析してみた

本アプリをGooglePlayStoreにて公開します. ダウンロード

カメラとマイクが搭載されたAndroid端末があれば,誰でも利用できます.

感想

須崎翔太

技育プロジェクト2023の 技育CAMPハッカソン 第一弾に参加し、最優秀賞をいただきました!ありがとうございます!

初めてのチーム開発でしたが強みを活かしきれたと思っています!

自分のWebサイトに紹介用動画(ほぼそのまま)を載せてます!

https://sites.google.com/view/logsuzaki/%E5%8F%AB%E3%81%B3

熊澤綾人

技育プロジェクト2023の 技育CAMPハッカソン 第一弾に参加し、最優秀賞をいただきました! 自分は音関係を担当しました.

初めてのハッカソン&制作物公開で不安な点も多かったですが楽しく開発できました.

suzaki

1 分で読めます

この度, 第10回学生スマートフォンアプリコンテスト に参加し,最優秀賞NTTテクノクロス様の企業賞を受賞しました

作成したアプリの概要

本アプリは携帯を水に沈めて遊ぶ,魚の掴み取りアプリです. 携帯に搭載されている気圧センサを使って「携帯を水に沈めたか」「携帯を強く掴んでいるか」が推定できます. 本アプリはこの2つの推定を使って,携帯を水に沈めてじっとしていると魚が出現し,携帯を強く握ると魚が捕まえられるゲームです. 捕まえた魚はSNS連携によりtwitter等で共有できます. 本アプリはGoogleStoreからダウンロードできます.

感想

どうも,M1の須崎翔太です. 優勝しました.ヤッター!.

はい,これにて梶研アプコン三連覇です.もはや殿堂入りしてもおかしくないですね. 本アプリを発表した後,一番言われたのは「どうやってこのアイデアに行き着いたのか」でした.
ここではそれについて少し書こうと思います.
まず最初に「携帯を水に沈めたら気圧センサの値が変わるんじゃね?」と思いつきました. このアプリを説明すると「携帯に気圧センサが搭載されてるの知らなかった」とかよく言われるんですよね. 僕は,この研究室がよく携帯のセンサに関する研究をしていたおかげでこういった知識を持っていました. で,こういう知識がある状態でひらめきが来ると「これ実現できるんじゃね?」ってなるわけです.

じゃあ次はひらめきについてです. 僕は携帯を水に沈めるアイデアを,釣りをしている人を見て思いつきました. 「いや思いつかねーよ」って言われるかもしれません. 当時は「ぶっ飛んだスマホアプリのアイデアないかな〜」って思いながら生活していたから釣りを見た瞬間ひらめいたと思います.
あとはいろんな人にこのアイデアを話したりWebで調べたりして整理していきます. 当時は「水深がわかる」からは「携帯を水に沈めたら水深がわかるアプリ」しか思いつきませんでした. しかし,いろんな人と議論してお風呂や魚というアイデアが生まれ最終的にこのアプリになりました. この時議論の相手に選んだのはモバイルアプリやシステムの開発に詳しい人は当然として,全くITの知識がない人とも議論しました. 開発の知識がある人には実装やゲームデザイン全体の方向性を,ない人にはアイデアを聞くとそれぞれ価値の高い議論ができます.

ogane

1 分で読めます

参加メンバー

今回,開催されたOPEN Hack Uにはao(B3),fuma(B3),oiwa(B3),yada(B3),makino(B1)の計5人が参加しました.

制作物

服を街を歩く人たちとすれ違う時に自分の服を評価してもらうことができるアプリで,自分ではなかなか気づくことができない今自分が着ている服がおしゃれなのかわかるアプリです.

服登録部分のデモ


評価表示画面のデモ

サーバーにユーザーの服の情報を教えてもらい,その情報をもとにGoogleMapにピンを立てています.

発表時の動画

発表シーン

展示会

審査員ご講評

yada 一言コメント

受賞者紹介ページ

参加・受賞コメント

ao (デザイン・発表担当)

自分がやったことの無い新しいことに挑戦したいと思い,今回はデザインや発表の役割を担いました. 今回のハッカソンで,グループ開発ならではの面白さと過酷さを痛感しました. このチームメンバーと一緒に開発できたことと,最優秀賞を受賞できたことは非常に良い経験になりました.

fuma (Webページ担当)

軽い気持ちで始めるにはあまりに大きい開発でしたが,研究室でアドバイスをたくさん頂いたり,先輩に技術的な面をサポートしてもらってなんとか形にすることができました. チームの仲間と協力した結果として最優秀賞を獲れたことがとても嬉しいです.

oiwa (フロントエンド担当)

大学生のうちに,プログラミングの大会に一度でも出てみたいと思いこのHack Uに参加しました. 主にWebのフロントエンドを担当し,研究室の先輩からフォローをもらいながら実装していきました. 途中で困難に当たることも多かったですが,だからこそ優勝できたことは嬉しかったです. この経験を今後に活かしていきたいと思います.

yada (バックエンド担当)

今回参加したHack Uで私は主にバックエンドをを担当しました. バックエンドを担当する事は初めてだったので実装に苦労しましたが,目標にしていた最優秀賞をいただくことができ嬉しく思います. 今回の優勝はこのチームだったからこそ実現できたものだと思います. この経験を今後の活動に活かしていきたいと思います.

makino (Android担当)

今回Androidを開発を主に担当しました. チームの中で唯一1年でとても緊張しましたが,ここまで大きな成果を得られてとても嬉しいです. 途中エラーが出て苦しい時期もありましたが,HackFamilyのみんなで一緒に開発をしていたからこそ最後までやり切ることができたと思います. 今後も,今回の経験を通してさまざまな開発に活かしていきたいと思っています.

suzaki

2 分で読めます

IWIN2022にて「Implementation of spatio-temporal fencing for crowd sensing in a smartphone applications」を発表してきました. この発表で「IWIN2022 Best Presentation Awards」を受賞しました

発表概要

Crowdsensing platforms are available to solve the problems of dedicated system development and operating costs associated with crowdsensing. Among them, there are several crowdsensing platforms that provide incentive elements to motivate and maintain users. We build a crowdsensing platform (Lavlus) to mitigate disincentive factors that can be used in conjunction with incentive factors. This study implements a smartphone application for Lavlus. The Lavlus smartphone app needs to have the following functions: sensing project download, sensing request notification, automatic sensing, and sensor data upload. Among them, sensing request notification and automatic sensing are based on Spatio-temporal fencing. Geofencing used latitude and longitude, which are easy for users to visually recognize, but GPS is unstable indoors and in areas with many buildings. Therefore, a margin is provided on the geofence to determine whether the user has entered or exited the geofence with certainty. Lavlus may also target specific facilities, such as amusement parks or factories, as actual use cases. In this case, the geofence may be arbitrarily polygonal. We then draw a circle with the user at its center and generate geofencing points at eight points on the circumference of the circle. If one or more of the generated points are inside the geofence, the system determines that it is about to enter space-time and issues a notification whether or not it will cooperate with sensing. If all eight points are inside, the application judges that it has definitely entered the area and performs automatic sensing. If all eight points are outside, the application judges that it has definitely exited and terminates sensing. This allows proper geofencing even when the geofence is arbitrarily polygonal. In this paper, we implemented these functions and verified their operation. As a result, the geofence worked properly for arbitrary polygons.

報告と感想

どうも,M1の須崎翔太です. この度 8/31 ~ 9/3 に開催されたIWIN2022にオフラインで参加してきました. 学会発表は1ヶ月前にあったDICOMOが初めてで,今回は英語かつオフラインとのことで非常に緊張しました. そんな初めての環境での発表でしたが,多くの助力と練習により満足できる発表ができました. 研究室の皆様や,関係者の皆様にはここで御礼申し上げます. 結果,「IWIN2022 Best Presentation Awards」受賞でき,大変嬉しく思います.

最近の投稿

カテゴリー

本サイトについて

愛知工業大学 梶研究室の公式Webサイトです。研究実績や日常生活についての記事を掲載しています。