<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>NTREXGO - 디바이스마트, 엔티렉스 컨텐츠 통합 사이트 &#187; 수상작</title>
	<atom:link href="http://www.ntrexgo.com/archives/tag/%ec%88%98%ec%83%81%ec%9e%91/feed" rel="self" type="application/rss+xml" />
	<link>http://www.ntrexgo.com</link>
	<description>엔티렉스, 디바이스마트 컨텐츠 통합 사이트</description>
	<lastBuildDate>Thu, 03 Mar 2022 06:47:11 +0000</lastBuildDate>
	<language>en-US</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.5.1</generator>
		<item>
		<title>[68호]메카넘휠과 2D lidar를 이용한 자율주행 로봇</title>
		<link>http://www.ntrexgo.com/archives/40952</link>
		<comments>http://www.ntrexgo.com/archives/40952#comments</comments>
		<pubDate>Mon, 25 Oct 2021 00:00:50 +0000</pubDate>
		<dc:creator>디바이스마트 매거진</dc:creator>
				<category><![CDATA[디바이스마트 매거진]]></category>
		<category><![CDATA[특집]]></category>
		<category><![CDATA[ict]]></category>
		<category><![CDATA[ict공모전]]></category>
		<category><![CDATA[공모전]]></category>
		<category><![CDATA[디바이스마트]]></category>
		<category><![CDATA[매거진]]></category>
		<category><![CDATA[수상작]]></category>
		<category><![CDATA[융합]]></category>
		<category><![CDATA[프로젝트]]></category>

		<guid isPermaLink="false">http://www.ntrexgo.com/?p=40952</guid>
		<description><![CDATA[디바이스마트매거진 68호 &#124; 자율주행 로봇이 주변의 모든 구조를 인식하고, 그 구조 위에서 목적지까지 장애물을 피해서 갈수 있는 최단 경로를 생성한 후에 그 경로를 따라 로봇이 움직이게 구현한다.
]]></description>
				<content:encoded><![CDATA[<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_매카넘휠-1.png" rel="lightbox[40952]"><img class="alignnone size-large wp-image-41051" alt="68 ICT_매카넘휠 (1)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_매카넘휠-1-620x203.png" width="620" height="203" /></a></p>
<p><span style="font-size: medium"><strong>ICT 융합 프로젝트 공모전 우수상</strong></span></p>
<p><span style="font-size: x-large;color: #ff6600"><strong>메카넘휠과 2D lidar를 이용한 자율주행 로봇</strong></span></p>
<p style="text-align: right">글 | 포항공과대학교 이도현</p>
<p>&nbsp;</p>
<p><span style="color: #ff6600"><strong>1. 심사평</strong></span><br />
<strong>칩센</strong> 자동차의 자율 주행을 위해서도 Lidar와 Radar를 이용한 기술들이 매우 많은 관심과 연구가 이루어지고 있는 것으로 알고 있습니다. 시연 동영상내에서도 경로를 잘 탐색한듯 하지만 마지막에 충돌이 발생하는 부분을 확인 가능한데, 이러한 부분을 개선 가능한 다른 솔루션도 함께 적용하면 시뮬레이션 레벨을 넘어서는 매우 훌륭한 작품이 만들어 질 것으로 보입니다.<br />
<strong>펌테크</strong> LIDAR를 활용한 자율주행 로봇 작품으로 전체 하드웨어 및 소프트웨어 시스템 연동을 위한 기획의도, 기술 구현 방안 및 작품의 하우징 구성 등이 인상적이었으며 기술 구현도, 완성도 등에서 상당히 우수한 작품으로 생각합니다.<br />
<strong>위드로봇</strong> 메카넘 휠을 쓴 부분을 제외하곤 전형적인 이동로봇이라 창의성 부분이 아쉽습니다. 완성도는 높이 평가합니다.<br />
<strong>뉴티씨</strong> 각종 센서로 장애물 등을 파악하여 회피할 수 있었는데, 비용만 충분하다면, 보다 많은 센서를 사용하여, 아무리 목적지가 벽 안에 있다고 해도 부딪히지 않았을 것 같아 개선의 여지가 보입니다. 만들다보면, 기계적인 부분에서도 많은 비용이 발생하고, 배선 부분이나 통신 부분에서도 어려움이 많은데, 조금 더 노력하면 더 좋은 작품이 탄생할 것 같습니다.</p>
<p><span style="color: #ff6600"><strong>2. 작품 개요</strong></span><br />
본 프로젝트인 ‘메카넘휠과 lidar를 이용한 자율주행 로봇’ slam기술을 적용하여 자율주행을 구현하였다. slam이란 Simultaneous Localization and Mapping의 약자로, 동시에 로봇의 위치추정 및 주변 환경 지도 작성을 수행하는 기술이다. 본 프로젝트에서는 2d lidar를 통해 주변 환경을 pointcloud 데이터로 받아와, 메카넘휠의 odometry와 결합하여 map을 생성한다. 생성된 map을 바탕으로 출발점에서 목적지까지 최단 경로를 생성하여, 로봇이 그 경로를 따라 이동하는 방식으로 자율주행이 이루어진다.<br />
단순히 로봇 주변에 장애물이 일정 이상 가까워지면 멈추고 다른 방향으로 가는 것이 아니라, lidar가 닿는 전 부분에서 주변의 모든 구조를 인식하고, 그 구조 위에서 목적지까지 장애물을 피해서 갈수 있는 최단 경로를 생성한 후에 그 경로를 따라 로봇이 움직이는 것이다. 이러한 작업이 실시간으로 진행된다.<br />
또한 일반적인 자율주행 플랫폼과 달리, 만들어진 지도를 자율주행에만 사용하고 버리는 것이 아니라. 그 데이터를 TXT파일로 저장해 도출하여 주행이 끝나고 시스템이 종료된 뒤에도 만들어진 지도를 확인할 수 있는 기능을 가지고 있다.<br />
해당 자율주행 플랫폼은 식당 서빙 로봇, 로봇청소기, 물류창고 로봇 등등 바퀴를 사용하는 플랫폼이라면 모두 적용할 수 있으므로, 활용성과 적용성이 매우 높다고 볼 수 있다.</p>
<p><span style="color: #ff6600"><strong>3. 작품 설명</strong></span><br />
<span style="color: #008080"><strong>3.1. 주요 동작 및 특징</strong></span><br />
<span style="color: #33cccc"><strong>3.1.1. 전방향 이동 가능</strong></span><br />
메카넘 휠을 기반으로 플랫폼을 제작하였다. 메카넘휠의 특징 상, 플랫폼(차)이 회전하지 않고도 모든 방향으로 이동할 수 있다는 장점이 있다. 따라서 일반적인 조향장치를 가진 플랫폼이 가지 못하는 경로도 본 프로젝트의 메카넘휠 플랫폼은 따라 갈 수 있다는 장점이 있고, 이는 자율주행에 큰 이점이 될 수 있다.<br />
<strong></strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_매카넘휠-2.png" rel="lightbox[40952]"><img class="alignnone size-full wp-image-41052" alt="68 ICT_매카넘휠 (2)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_매카넘휠-2.png" width="612" height="613" /></a></p>
<p><span style="color: #33cccc"><strong>3.1.2. 주변 환경 인식 후 지도생성 가능</strong></span></p>
<p><span style="color: #33cccc"><strong><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_매카넘휠-3.png" rel="lightbox[40952]"><img class="alignnone size-full wp-image-41053" alt="68 ICT_매카넘휠 (3)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_매카넘휠-3.png" width="617" height="436" /></a></strong></span><br />
본 프로젝트는 ydlidar X2L을 사용하여 주변 환경을 pointcloud로 받아온다. 받아온 pointcloud들을 메카넘휠의 wheel odometry와 합쳐 주변환경의 지도를 생성한다. 주변환경의 정보를 다음 페이지 테스트 환경과 지도로 수집할 수 있다는 그 자체로 장점이 될 수 있고, 저렇게 실시간으로 제작되는 지도는 자율주행을 위한 경로탐색 알고리즘을 담당하는 python코드로 전송되어 로봇이 목표지점까지 갈 수 있도록 하는 경로를 생성하는 데 이용된다.<br />
<strong></strong></p>
<p><span style="color: #33cccc"><strong>3.1.3. 로봇이 갈 수 있는 최단경로 정보 생성 가능</strong></span><br />
본 프로젝트의 로봇은 얻은 지도 데이터를 바탕으로 로봇이 목표지점까지 갈 수 있는 최단 경로를 실시간으로 생성한다.<br />
최단거리 생성을 우선으로 하되, 벽에 부딪힐 가능성을 줄이고자 벽과는 반드시 일정 거리를 두도록 프로그래밍 하였다. 경로탐색에 쓰인 알고리즘은 A* algorithm이다. 실시간으로 전송되어 오는 지도마다 경로탐색을 새로 실시하기 때문에, 주행 중 이전 지도에는 없던 장애물이나 벽을 감지하게 되면, 그에 따라 새로운 경로를 생성해낸다. 따라서 목표지점까지 장애물과 부딪히지 않으면서 최단 경로로 도달할 수 있다.<br />
<strong></strong></p>
<p><span style="color: #33cccc"><strong>3.1.4. 생성된 최단경로를 바탕으로 로봇의 자율 주행 가능</strong></span><br />
A* 알고리즘을 통해 얻은 경로를 로봇이 그대로 따라갈 수 있는 능력을 가지고 있다. 자세한 원리는 후에 다른 목차에서 설명할 것이다. 현재 로봇의 목적은 자율주행이므로 A*알고리즘이 만든 경로만을 따라가지만, 설정을 바꾼다면 사람이 지도를 보고 그린 경로를 따라가게도 만들 수 있다.<br />
본 프로젝트의 주요 동작은 자율주행이다. 라인트레이서나 트래커와 다르게 어떠한 표식이 없어도 스스로 주변환경을 인식하여 외부의 도움 없이 목적지까지 도달 할 수 있으며, 일반적인 자율주행과 다르게 메카넘휠을 사용하였기 때문에 모든 경로로 이동할 수 있는 장점이 있다. 또한, 주 부품이 스텝모터 4개, 저가형 2d lidar 하나, jetson nano로, 굉장히 저가로 자율주행을 구현할 수 있는 플랫폼을 제작하였다는 점에서 의미가 있다.</p>
<p><span style="color: #33cccc"><strong>3.1.5. 로봇을 직접 조종하여 map data 얻고, 그 데이터를 txt파일로 저장하는 기능</strong></span><br />
자율주행 뿐 아니라, 사람이 직접 조종하여 환경의 지도 데이터를 얻고, 이를 txt파일로 저장하여 시스템이 꺼진 뒤에도 해당 공간의 지도 데이터를 저장해둘 수 있다. 해당 txt파일은 본 프로젝트에서 만든 파이썬 코드로 시각화할 수 있다.</p>
<p><span style="color: #008080"><strong>3.2. 개발 환경</strong></span><br />
<span style="color: #33cccc"><strong>3.2.1. Linux (ubuntu 18.04)</strong></span><br />
모든 작업은 jetson nano의 ubuntu 18.04 LTS에서 이루어졌다.</p>
<p><span style="color: #33cccc"><strong>3.2.2. arduino</strong></span><br />
로봇이 Vx, Vy, W만큼 이동하라는 명령을 받았을 때, 이를 메카넘휠 odometry 계산을 통해 각각의 스텝모터가 얼만큼의 각속도로 회전해야 하는지를 계산해주고, 그 계산값을 스텝모터에 적용해 실제로 돌게 하는 부분을 arduino IDE에서 작업하였다.</p>
<p><span style="color: #33cccc"><strong>3.2.3. python</strong></span><br />
lidar센서에서 pointcloud데이터를 읽어오는 작업과, 로봇이 얼마나 이동했는지를 계산해 mm단위로 그 값을 반환하는 작업, 경로탐색 알고리즘인 A* 알고리즘을 python 코드로 구현하였다.</p>
<p><span style="color: #33cccc"><strong>3.2.4. C++</strong></span><br />
python 코드에서 생성된 로봇의 Vx, Vy, W값을 받아와 아두이노로 그 값을 넘겨주는 부분을 담당하는 코드를 C++환경에서 구현하였다.</p>
<p><span style="color: #33cccc"><strong>3.2.5. ROS melodic</strong></span><br />
위에서 언급한 모든 알고리즘들을 ROS를 통해 하나로 연결하여 자율주행이 가능하도록 만들었다. python, C++, arduino(serial) 코드들을 모두 ros node로 만들었으며, python코드에서 생성된 로봇의 Vx, Vy, W값을 ros topic을 통해 C++코드로 넘겨주었고, 마찬가지로 그 값들을 ros topic을 통해 아두이노로 전송하였다.</p>
<p><span style="color: #008080"><strong>3.3. 전체 시스템 구성</strong></span><br />
<span style="color: #33cccc"><strong>3.3.1. 하드웨어</strong></span><br />
4개의 스텝모터에 각각 메카넘휠이 부착되어 있고, 각 스텝모터는 스텝모터 드라이버에 연결되어 있으며, 그 드라이버는 아두이노 우노에 연결되어있다. 아두이노 우노와 2d lidar는 jetson nano에 usb로 연결되어 있다. 그림으로 간단하게 나타내면 다음과 같다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_매카넘휠-4.png" rel="lightbox[40952]"><img class="alignnone size-large wp-image-41054" alt="68 ICT_매카넘휠 (4)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_매카넘휠-4-527x620.png" width="527" height="620" /></a></p>
<p><span style="color: #33cccc"><strong>3.3.2. 소프트웨어</strong></span><br />
본 프로젝트의 자율주행 기능에는 총 4개 코드로 이루어져 있으며 talker.py, A_star.py, ladarbot_node.cpp, ladarbot_subnode.ino가 그것이다.<br />
talker.py는 로봇이 현재위치를 실시간으로 계산하는 기능, lidar센서에서 pointcloud데이터를 얻어오는 기능, 얻어온 pointcloud데이터와 로봇의 현재위치 데이터를 기반으로 지도를 생성하는 기능, A_star.py내의 함수를 호출해 매개변수로 지도를 전달하여 A_star.py로부터 로봇이 이동해야 하는 경로를 받아오는 기능, 해당 경로를 주행하기 위해 로봇이 움직여야 하는 Vx, Vy, W를 생성하는 기능이 구현되어있다.<br />
A_star.py는 talker.py에서 생성한 map을 받아와 로봇이 이동해야 하는 경로를 생성하여 그 경로를 다시 talker.py로 반환한다. A_star.py는 파이썬 모듈로써, talker.py에서 import하여 사용한다.<br />
ladarbot_node.cpp는 talker.py에서 생성한 Vx, Vy, W를 ROS topic을 통해 받아와, ROS topic을 통해 ladarbot_subnode.ino로 그 값을 전송한다. 통신을 위한 매개코드라고 생각할 수 있다.<br />
ladarbot_subnode.ino는 ladarbot_node.cpp에서 ros topic을 통해 전송해준 Vx,Vy,W를 받아와 로봇이 Vx,Vy,W만큼 움직이기 위해 각각의 스텝모터가 얼마만큼의 각속도로 회전해야 하는지를 계산한다. 그 값을 각각의 스텝모터에게 전달하여 로봇이 움직이도록 한다.<br />
A_star.py와 talker.py간 연결을 제외한 모든 코드들간 연결은 ROS topic을 이용해 서로 통신한다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_매카넘휠-5.png" rel="lightbox[40952]"><img class="alignnone size-full wp-image-41055" alt="68 ICT_매카넘휠 (5)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_매카넘휠-5.png" width="620" height="157" /></a><br />
본 프로젝트의 지도 저장 기능을 구현하는 코드는 크게 5가지이다. ladarbot_node.cpp, ladarbot_subnode.ino, lidar.launch, lidar_range_node.cpp, slam_map.py 가 그것이다. 이중 ladarbot_node.cpp, ladarbot_subnode.ino는 자율주행에 사용한 코드와 동일하다. lidar.launch는 ydlidar를 제작한 회사에서 lidar의 데이터를 얻을 때 쓰라고 공유한 오픈소스이며, 지도데이터를 얻어와 txt파일로 만드는 데는 직접 짠 talker.py 대신 해당 오픈소스를 사용하였다. lidar_range_node.cpp는 lidar.launch에서 보내오는 map데이터를 읽어와 플랫폼의 odometry정보와 합쳐 지도정보를 만들고, 이를 txt파일로 내보내는 역할을 하는 코드이다. 마지막으로 slam_map.py는 txt파일을 읽어 지도를 시각화하는 코드이다.<br />
<strong></strong></p>
<p><span style="color: #ff6600"><strong>4. 단계별 제작 과정</strong></span><br />
<span style="color: #008080"><strong>4.1. 하드웨어</strong></span><br />
하드웨어의 경우 본 공모전을 발견하기 전부터 만들어 오고 있었고, 때문에 만드는 과정에서의 사진이 남아 있지 않다. 본 프로젝트의 하드웨어는 메카넘휠 기반 모바일 로봇이며, 정확한 odometry(자기위치 추정)이 가능할 수 있도록 회전수와 회전속도를 정확히 컨트롤 할 수 있는 스텝모터를 사용하였다. 로봇에 들어가는 컴퓨터는 jetson nano를 사용하였다. 기본적인 하드웨어는 알루미늄 프레임을 기반으로 제작하였고, 배터리 고정하는 부품, lidar고정용 부품, 바퀴 보호개 등은 직접 설계하여 3d프린터로 출력하여 사용하였다. 하드웨어 제작의 난이도는 굉장히 낮고, 본 프로젝트의 핵심은 자율주행 알고리즘 및 ROS시스템 사용이므로 하드웨어는 간단하게 설명하였다.<br />
<strong></strong></p>
<p><span style="color: #008080"><strong>4.2. 프로그래밍</strong></span><br />
<span style="color: #33cccc"><strong>4.2.1. 자율주행</strong></span><br />
<span style="color: #ff9900"><strong>하드웨어 제어</strong></span><br />
하드웨어 제어는 ladarbot_subnode.ino라는 arduino IDE코드가 담당한다. 해당 코드는 로봇 몸체가 움직여야할 속도와 방향을 알려주는 Vx, Vy, W값을 받아와서 그 움직임을 구현할 수 있게 각각의 스텝모터가 얼마만큼의 각속도로 회전해야 하는지를 구한다. 그 후 그 값들을 스텝모터들에게 입력하여 모터가 움직일 수 있도록 한다.<br />
본 프로젝트의 로봇은 메카넘 휠을 이용해 이동한다. Vx, Vy, W만큼 로봇이 이동하였을 때, 그 로봇의 4개의 메카넘휠이 얼마만큼의 각속도로 회전하는지를 행렬 계산을 통해 변환 수식을 구해낼 수 있다. 「메카넘휠 기반의 전방향 이동로봇 슬립에 관한 해석 및 실험적 검증」 김설하, 이청화, 주백석, 「메카넘휠 기반의 전방향 이동로봇 슬립에 관한 해석 및 실험적 검증」, 한국정밀공학회지 제 37권 제 1호, 2020.01.35, pp.35-42. 논문을 참고하였다. 4개의 모터의 각속도를 각각 θ1, θ2, θ3, θ4라 하면, 로봇 자체의 속도 Vx, Vy, w와 θ1, θ2, θ3, θ4사이 관계는 다음과 같이 나타나진다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_매카넘휠-6.png" rel="lightbox[40952]"><img class="alignnone size-full wp-image-41056" alt="68 ICT_매카넘휠 (6)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_매카넘휠-6.png" width="620" height="358" /></a></p>
<p>위 행렬식을 계산하여 아두이노 코드로 작성하면 다음과 같이 나타난다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>void control(unsigned long current, float Vx, float Vy, float W)<br />
{<br />
if((Vx == 0 &amp;&amp; Vy == 0) &amp;&amp; W == 0)<br />
{<br />
Stop();<br />
}<br />
else<br />
{<br />
w1 = (Vx &#8211; Vy &#8211; (l1 + l2) * W) * (1 / R);<br />
w2 = (Vx + Vy + (l1 + l2) * W) * (1 / R);<br />
w3 = (Vx &#8211; Vy + (l1 + l2) * W) * (1 / R);<br />
w4 = (Vx + Vy &#8211; (l1 + l2) * W) * (1 / R);<br />
motorRF(current, w2);<br />
motorRB(current, w3);<br />
motorLF(current, w1);<br />
motorLB(current, w4);<br />
}<br />
}<br />
</div>
<p>motorRF, motorRB, motorLF, motorLB함수는 각각 오른쪽 앞, 오른쪽 뒤, 왼쪽 앞, 왼쪽 뒤 스텝모터를 제어하는 함수이며. w1, w2, w3, w4가 각각 θ1, θ2, θ3, θ4이다.<br />
Stop함수는 스텝모터에 전류를 차단하는함수인데, 멈춰 있을 때에는 모터가 쉴 수 있도록 하기 위해 삽입하였다. motorRF 함수의 형태는 다음과 같다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>void motorRF(int current,float w)<br />
{<br />
if(w &gt; 0)<br />
digitalWrite(3,1);<br />
else<br />
{<br />
digitalWrite(3,0);<br />
w = -w;<br />
}<br />
float num = ((2*PI)/1600)*(1000000/w);<br />
if(current &#8211; previousRF &lt; num){<br />
digitalWrite(2,LOW);<br />
}<br />
else<br />
{<br />
previousRF = current;<br />
digitalWrite(2,HIGH);<br />
}<br />
}<br />
</div>
<p>motorRB, motorLF, motorLB함수 역시 유사한 형태이다.<br />
float num = ((2*PI)/1600)*(1000000/w); 은 사용하는 스텝모터가 1600스텝일 때 한바퀴 회전하기 때문에, 그리고 스텝간 시간간격이 초단위가 아닌 microsecond 단위이므로 다음과 같이 나타내 주었다. 매개변수로 받아오는 current는 아두이노의 micros() 함수를 통해 측정되는 현재 시간이다.(microsecond단위로 반환한다)<br />
다음은 ROS를 통한 통신 부분이다. ladarbot_node,cpp에서 Vx, Vy, w값을 geometry_msgs/Twist 메시지를 통해 ArduinoTopic이라는 Topic name으로 전달받는다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>#include&lt;ros.h&gt;<br />
#include&lt;std_msgs/Byte.h&gt;<br />
#include&lt;geometry_msgs/Twist.h&gt;</p>
<p>ros::NodeHandle nh;<br />
void message(const geometry_msgs::Twist&amp; msg);<br />
void odometry(unsigned long current, float Vx, float Vy, float W, float *x, float *y, float *theta);<br />
ros::Subscriber&lt;geometry_msgs::Twist&gt;sub(&#8220;ArduinoTopic&#8221;,message);</p>
</div>
<p>ArduinoTopic 토픽으로 값이 전송될 때마다 message함수를 호출한다. message함수의 구조는 다음과 같다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>void message(const geometry_msgs::Twist&amp; msg)<br />
{<br />
Vx = msg.linear.x;<br />
Vy = msg.linear.y;<br />
W = msg.angular.z;<br />
}</p>
</div>
<p>loop함수 내에서의 함수호출 및 실행은 다음과 같다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>void loop()<br />
{<br />
unsigned long current;<br />
current = micros();<br />
control(current, Vx, Vy, W);<br />
nh.spinOnce();<br />
}</p>
</div>
<p><span style="color: #ff9900"><strong>lidar data reading &amp; ploting &amp; 로봇 현재위치 계산</strong></span><br />
lidar센서에서 데이터를 얻는 작업, 로봇의 현재위치를 계산하고 lidar데이터와 계산된 현재 위치를 바탕으로 지도를 만드는 작업, 그리고 만들어진 지도와 수신한 경로를 ploting 해 주는 작업을 talker.py에서 진행한다. 우선 lidar로부터 센서데이터(pointcloud) 값을 얻는 부분의 코드이다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>port = &#8220;/dev/ydlidar&#8221;;</p>
<p>laser = ydlidar.CYdLidar();<br />
laser.setlidaropt(ydlidar.LidarPropSerialPort, port);<br />
laser.setlidaropt(ydlidar.LidarPropSerialBaudrate, 115200)<br />
laser.setlidaropt(ydlidar.LidarPropLidarType, ydlidar.TYPE_TRIANGLE);<br />
laser.setlidaropt(ydlidar.LidarPropDeviceType, ydlidar.YDLIDAR_TYPE_SERIAL);<br />
laser.setlidaropt(ydlidar.LidarPropScanFrequency, 6.0);#10.0<br />
laser.setlidaropt(ydlidar.LidarPropSampleRate, 9);<br />
laser.setlidaropt(ydlidar.LidarPropSingleChannel, True);<br />
scan = ydlidar.LaserScan()</p>
</div>
<p>사용하는 ydlidar_X2L의 스펙에 맞게, serial통신 baudrate를 115200으로 설정하였다.<br />
다음은 로봇의 현재위치를 계산하고 lidar데이터와 계산된 현재 위치를 바탕으로 지도를 만드는 작업, 그리고 만들어진 지도와 수신한 경로를 ploting 해 주는 작업의 부분이다. 서로가 긴밀하게 연결되어 있어 따로따로 소개하기 힘들어 한번에 소개한다.<br />
우선 로봇의 현재위치를 계산하기 위하여 함수가 돌아가는 시간을 한번의 loop마다 몇 초가 걸리는지를 계산한다. dt = (p.timer &#8211; p.current_time), p.current_time = time.time()과 함수 끝의 p.timer = time.time() 부분이다. 한 루프의 걸린 시간을 측정하는 이유는, 로봇이 Vx, Vy, w로 움직였을 때, 이동거리와 회전각도는 각각에 걸린 시간을 곱하는 형태로 구해지기 때문이다. 현재 위치를 계산하는 부분은 다음과 같다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p><strong>현재위치 계산</strong></p>
<p>dt = (p.timer &#8211; p.current_time)<br />
p.current_time = time.time()<br />
p.theta = p.theta + p. W*dt<br />
p.odo_x = p.odo_x + (p.Vx * math.cos(p.theta) &#8211; p.Vy * math.sin(p.theta)) * dt<br />
p.odo_y = p.odo_y + (p.Vx * math.sin(p.theta) + p.Vy * math.cos(p.theta)) * dt<br />
：<br />
：<br />
p.timer = time.time()</p>
</div>
<p>다음은 로봇 주변 공간을 지도로 만들 때, 그 공간을 격자화시키기 위한 코드이다. 로봇이 이동하는 공간이 격자화 되어 있어야 후에 로봇의 이동경로를 생성할 수 있다. 격자 하나를 10cm로 설정하였다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p><strong>지도 공간 격자화 코드</strong></p>
<p>grid_x_max = 5*1000 # 10m<br />
grid_y_max = 5*1000 # 10m<br />
grid_x_min = -5*1000 # -10m<br />
grid_y_min = -5*1000 # -10m<br />
#maze = [] # stack<br />
#grid_maze = [] # stack<br />
grid_size = 100 # 0.1m<br />
p.grid_size = grid_size<br />
r = laser.doProcessSimple(scan);<br />
k = 0<br />
if r:<br />
grid_x = []
grid_y = []
#for i in range(0, grid_x_max * 3):<br />
# maze.append([0,0])<br />
for i in range(grid_x_min, grid_x_max + grid_size, grid_size):<br />
grid_x.append(i)<br />
for i in range(grid_y_min, grid_y_max + grid_size, grid_size):<br />
grid_y.append(i)<br />
maze = [] # real-time delete<br />
grid_maze = [] # real-time delete<br />
</div>
<p>다음으로 lidar에서 받아온 pointcloud데이터와 현재위치 데이터를 얻어와 지도를 만드는 코드이다. 이때, pointcloud의 점의 거리가 현재 설정되어있는 격자공간보다 더 큰 거리를 가진다면, 격자공간을 넓히는 작업을 시행한다. 해당 부분의 코드이다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p><strong>map 생성 및 격자공간 확장 코드<br />
</strong></p>
<p>for point in scan.points:<br />
dis = int(point.range * 1000)<br />
if(dis &gt; 100):<br />
x = int(- p.odo_x * 1000 + dis * math.cos(point.angle))<br />
y = int(- p.odo_y * 1000 + dis * math.sin(point.angle))<br />
maze.append([-x,y])<br />
else:<br />
continue</p>
<p>before_gridx_max = grid_x_max<br />
before_gridy_max = grid_y_max<br />
before_gridx_min = grid_x_min<br />
before_gridy_min = grid_y_min<br />
if grid_x_max &lt; maze[k][0]:<br />
grid_x_max = maze[k][0] + (maze[k][0] % grid_size)<br />
if grid_y_max &lt; maze[k][1]:<br />
grid_y_max = maze[k][1] + (maze[k][1] % grid_size)<br />
if grid_x_min &gt; maze[k][0]:<br />
grid_x_min = maze[k][0] + (-maze[k][0] % grid_size)<br />
if grid_y_min &gt; maze[k][1]:<br />
grid_y_min = maze[k][1] + (-maze[k][1] % grid_size)</p>
<p>for i in range(before_gridx_min &#8211; grid_size, grid_x_min &#8211; 2 * grid_size, -grid_size):<br />
grid_x.insert(0, i)<br />
for i in range(before_gridy_min &#8211; grid_size, grid_y_min &#8211; 2 * grid_size, -grid_size):<br />
grid_y.insert(0, i)<br />
for i in range(before_gridx_max + grid_size, grid_x_max + grid_size, grid_size):<br />
grid_x.append(i)<br />
for i in range(before_gridy_max + grid_size, grid_y_max + grid_size, grid_size):<br />
grid_y.append(i)</p>
</div>
<p>다음은, 지도를 형성하는 점들이 하나의 격자에 여러 개가 찍힐 때, 그 격자만 벽으로 인식하게 하는 코드이다. 이 부분의 코드를 거치기 전에는 pointcloud데이터에 어떠한 가공도 하지 않은 지도였지만, 이 작업 후에는 격자에 맞게 지도가 그려진다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p><strong>지도의 격자화 코드</strong></p>
<p>px = 0<br />
py = 0<br />
for i in range (0, len(grid_x)-1):<br />
if(grid_x[i] &lt; maze[k][0] and grid_x[i+1] &gt;= maze[k][0]):<br />
px = grid_x[i] + grid_size / 2<br />
break<br />
for i in range (0, len(grid_y)-1):<br />
if(grid_y[i] &lt; maze[k][1] and grid_y[i+1] &gt;= maze[k][1]):<br />
py = grid_y[i] + grid_size / 2<br />
break<br />
for i in range (0, len(grid_x)-1):<br />
if(grid_x[i] &lt; p.odo_x*1000 and grid_x[i+1] &gt;= p.odo_x*1000):<br />
p.gridodo_x = grid_x[i] + grid_size / 2<br />
break<br />
for i in range (0, len(grid_y)-1):<br />
if(grid_y[i] &lt; p.odo_y*1000 and grid_y[i+1] &gt;= p.odo_y*1000):<br />
p.gridodo_y = grid_y[i] + grid_size / 2<br />
break</p>
<p>if [px,py] in grid_maze:<br />
grid_maze.remove([px,py])<br />
grid_maze.append([px,py])<br />
k = k + 1<br />
</div>
<p>다음으로는 A*알고리즘을 구현한 A_star.py 파이썬 모듈에 격자화된 map데이터를 넘겨주어 로봇이 움직여야 할 경로를 받아오고, 그 경로와 격자화된 map을 실시간으로 plot하는 부분이다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p><strong>경로생성 및 ploting</strong></p>
<p>data1 = Astar.a_star(grid_maze, grid_size)<br />
p.astar = data1<br />
map1 = np.array(maze)<br />
map2 = np.array(data1)</p>
<p>lidar_polar.clear()<br />
lidar_polar.set_ylim(-5000,5000)<br />
lidar_polar.set_xlim(-5000,5000)<br />
lidar_polar.grid(True)</p>
<p>lidar_polar.scatter(map1[:, 0],map1[:, 1], s=1, color=&#8217;blue&#8217;)<br />
lidar_polar.scatter(map2[:, 0],map2[:, 1], s=1, color=&#8217;red&#8217;)<br />
now = [p.gridodo_x , p.gridodo_y]
</div>
<p>다음으로는 생성된 경로에 맞게 로봇이 움직여야 할 Vx, Vy를 계산하는 부분이다. 경로는 계속해서 업데이트 되기 때문에, 현재 위치의 바로 다음 경로만을 파악하여 그 방향으로 속도를 결정한다. 현재 공간은 모두 격자화 되어있기 때문에, 현재 위치에서 로봇이 이동할 수 있는 방향은 총 8가지(위, 오른쪽, 왼쪽, 아래 오른쪽 위, 오른쪽 아래, 왼쪽 위, 왼쪽 아래)이다. 생성된 경로에서 현재위치와 가장 가까운 경로의 위치를 파악하고, 그 방향으로 속도를 결정한다. ex: 다음 경로가 오른쪽 위라면 Vx = 0.04, Vy = 0.04로 설정(0.04m/s로 로봇이 움직이게 만들어 놓음)<br />
해당 코드이다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p><strong>Vx, Vy 생성코드</strong></p>
<p>xvel = 0.04ㅍv<br />
yvel = 0.04<br />
if now in p.astar:<br />
for i in p.astar:<br />
if(abs(now[0] &#8211; i[0]) == p.grid_size or abs(now[1] &#8211; i[1]) == p.grid_size):<br />
vx = i[0] &#8211; now[0]
vy = i[1] &#8211; now[1]
if(vx &gt; 0):<br />
p.Vx = xvel<br />
if(vx &lt; 0):<br />
p.Vx = -xvel<br />
if(vy &gt; 0):<br />
p.Vy = yvel<br />
if(vy &lt; 0):<br />
p.Vy = -yvel<br />
if(vx == 0):<br />
p.Vx = 0<br />
if(vy == 0):<br />
p.Vy = 0<br />
</div>
<p>다음으로, 생성된 Vx, Vy, w (메카넘휠이므로 로봇 몸체의 회전 없이도 전 방향으로 이동할 수 있어 w를 따로 계산 하지는 않음)를 ros topic을 통해 ladarbot_node.cpp로 전송하는 코드이다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p><strong>Vx, Vy, w 전송 코드</strong></p>
<p>sab = geometry_msgs.msg.Twist()<br />
sab.linear.x = p.Vx<br />
sab.linear.y = p.Vy<br />
sab.angular.z = p.W<br />
pub.publish(sab)</p>
</div>
<p>이 외 다른 ros 송.수신 관련 코드는 talker.py의 전체 코드에서 확인할 수 있다.<br />
<strong></strong></p>
<p><span style="color: #33cccc"><strong>4.2.2. 최단 경로 찾기 알고리즘 &#8211; A star algorithm</strong></span><br />
A* 알고리즘이란 시작점과 도착점이 주어져 있을 때, 그 사이 벽, 장애물 등을 피해 최단 경로를 만들어주는 알고리즘이다. 원리를 간단하게 설명하자면, 격자화되어있는 map이 제공되었을 때 우선 어느 부분이 이동할 수 없는 지역이고 어느 부분이 이동가능한 지역인지를 파악한다. 본 프로젝트는 talker.py에서 격자화된 지도를 만들며 벽이 있는 부분의 격자에는 1을, 그렇지 않는 부분에는 0을 저장하여 구분하였다. A*알고리즘을 통해 어느 사각형(격자)들을 거쳐야 하는지를 파악함으로서 길을 찾는다. 경로가 발견되면 목표 도달때까지 사각형에서 다음 사각형의 중심으로 이동한다. 이 중심점들을 노드라고 부른다.<br />
시작점을 열린 목록이라는 일종의 배열에 저장한다. 시작점에 인접한 이동불가지역을 무시하고, 이동가능한 사각형들을 열린 목록에 저장한다. 그 후 열린 목적에서 시작점을 제거하고, 다시 볼 필요 없는 닫힌 목록에 넣는다. 열린목록에 저장되어있는 사각형들은 부모 노드로 시작점을 가리키도록 한다. 현재 열린 목록에 존재하는 사각형들 중에 하나를 선택하여 위 과정을 반복하는데, 이때 사각형을 선택하는데 기준이 되는 것이 비용함수이다. 비용함수는 다음과 같이 이루어져 있다.</p>
<p>F = G + H</p>
<p>G는 시작점으로부터 현재 사각형까지의 경로를 따라 이동하는데 소요되는 비용이다.<br />
H는 현재 사각형에서 목적지 B까지의 예상 이동 비용이다. 사이에 벽등으로 실제 거리는 알지 못하고, 그들을 무시하고 예상 거리를 산출한다.<br />
F는 현재까지 이동하는데 걸린 비용과 예상 비용을 합친 것이다.<br />
이렇게 구해진 비용함수를 통해 가장 작은 F를 가진 사각형을 선택한다. 이렇게 선택된 사각형을 열린 목록에서 빼고 닫힌 목록에 저장한다. 그 후 현재 사각형에서 인접한 사각형을 확인한다. 벽 등 이동불가사각형은 무시하고, 열린목록에 주변 사각형이 없다면 열린 목록에 추가한다. 이때 열린 목록에 추가된 사각형들은 현재 사각형을 부모로 설정한다. 인접한 사각형이 이미 열린 목록에 존재한다면 그 사각형과 선택된 사각형 중 어느 것의 G비용이 더 낮은지 확인한다. 기존 선택된 사각형의 G비용이 더 낮다면 그대로 두지만, 인접한 사각형의 G비용이 더 낮다면 인접 사각형들의 부모를 새로운 사각형으로 바꾼다. 마지막으로 그 사각형의 F와 G를 다시 계산한다. 이러한 과정을 반복한다. 이렇게 길을 찾는 도중 목표 사각형을 열린 사각형에 추가하였을 때, 또는 열린 목록이 비어있게 될 경우(길을 못찾은 경우) 탐색을 중단하고 목표 사각형으로부터 각각의 사각형의 부모사각형을 향하여 시작사각형에 도달할 때까지 거슬러 올라가 경로를 저장한다.</p>
<p>다음은 이를 파이썬으로 구현한 코드이다. 우선 node를 만드는 클래스를 소개하겠다. 각 사각형(노드)의 F,G,H값, 부모노드를 저장할 수 있는 공간을 만들어 두었다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>class Node:<br />
def __init__(self, parent=None, position=None):<br />
self.parent = parent<br />
self.position = position</p>
<p>self.g = 0<br />
self.h = 0<br />
self.f = 0</p>
<p>def __eq__(self, other):<br />
return self.position == other.position<br />
</div>
<p>다음으로 A*알고리즘의 구현 코드이다.<br />
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>def aStar(maze, start, end, grid_size_r):<br />
n = 1<br />
grid_size = grid_size_r / n<br />
startNode = Node(None, start)<br />
endNode = Node(None, end)</p>
<p>openList = []
closedList = []
<p>openList.append(startNode)</p>
<p>while openList:<br />
currentNode = openList[0]
currentIdx = 0<br />
for index, item in enumerate(openList):<br />
if item.f &lt; currentNode.f:<br />
currentNode = item<br />
currentIdx = index</p>
<p>openList.pop(currentIdx)<br />
closedList.append(currentNode)</p>
<p>if currentNode == endNode:<br />
path = []
current = currentNode<br />
while current is not None:</p>
<p>path.append(current.position)<br />
current = current.parent<br />
return path[::-1]
<p>children = []
<p>checking_list = [(0, -grid_size), (0, grid_size), (-grid_size, 0), (grid_size, 0), (-grid_size, -grid_size), (-grid_size, grid_size), (grid_size, -grid_size), (grid_size, grid_size)]
<p>for newPosition in checking_list:</p>
<p>nodePosition = (<br />
currentNode.position[0] + newPosition[0], # X<br />
currentNode.position[1] + newPosition[1]) # Y</p>
<p>state = 0<br />
if [nodePosition[0],nodePosition[1]] in maze:<br />
continue</p>
<p>for i in maze:<br />
dis_x = abs(nodePosition[0] &#8211; i[0])<br />
dis_y = abs(nodePosition[1] &#8211; i[1])</p>
<p>dis = dis_x**2 + dis_y**2<br />
if dis &lt; (4*grid_size)**2:<br />
state = 1<br />
break</p>
<p>if state == 1:<br />
continue<br />
new_node = Node(currentNode, nodePosition)<br />
children.append(new_node)</p>
<p>for child in children:<br />
if child in closedList:<br />
continue</p>
<p>child.g = currentNode.g + 1<br />
child.h = ((child.position[0] &#8211; endNode.position[0]) **<br />
2) + ((child.position[1] &#8211; endNode.position[1]) ** 2)<br />
child.f = child.g + child.h</p>
<p>if len([openNode for openNode in openList<br />
if child == openNode and child.g &gt; openNode.g]) &gt; 0:<br />
continue</p>
<p>openList.append(child)<br />
</div>
<p>코드 중간에</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>for i in maze:<br />
dis_x = abs(nodePosition[0] &#8211; i[0])<br />
dis_y = abs(nodePosition[1] &#8211; i[1])</p>
<p>dis = dis_x**2 + dis_y**2<br />
if dis &lt; (4*grid_size)**2:<br />
state = 1<br />
break</p>
<p>if state == 1:<br />
continue<br />
</div>
이러한 부분이 존재한다. 위 부분은 A*알고리즘과 직접적인 연관은 없지만, 벽과 경로 사이 반드시 일정 거리를 유지하도록 한 코드이다. 최단경로가 아니더라도 벽과 부딪히지 않는 것이 더 중요하다고 판단하여 추가하였다.</p>
<p><span style="color: #ff9900"><strong>Vx, Vy, w 값을 받아와 아두이노로 넘겨주는 코드</strong></span><br />
원래 Vx,Vy,w를 생성하는 talker.py에서 아두이노로 바로 값을 전달해주는 것이 가장 간편하지만, 그 과정에서 계속해서 오류가 발생해 C++파일을 매개체로 하여 ROS로 연결하였다. 해당 역할을 하는 코드는 ladarbot_node.cpp이며, talker.py에서 Vx, Vy, w값을 ros topic을 통해 받아와 아두이노와 연결을 해주는 serial노드로 값을 전달한다. 다음은 해당 코드이다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>#include&lt;sys/time.h&gt;<br />
#include&lt;chrono&gt;</p>
<p>#include&lt;ctime&gt; //time function<br />
#include&lt;cmath&gt;<br />
#include&lt;iostream&gt; //time function</p>
<p>using std::cout; using std::endl;<br />
using std::chrono::duration_cast;<br />
using std::chrono::milliseconds;<br />
using std::chrono::seconds;<br />
using std::chrono::system_clock;<br />
#include&lt;ros/ros.h&gt;<br />
#include&lt;std_msgs/Byte.h&gt; //std_msgs have geometry_msgs<br />
#include&lt;geometry_msgs/Twist.h&gt;<br />
//keyboard use: rosrun teleop_twist_keyboard teleop_twist_keyboard.py</p>
<p>float arr[3] = {0,0,0};<br />
void Callback(const geometry_msgs::Twist::ConstPtr&amp; msg)<br />
{<br />
arr[0] = msg-&gt;linear.x;<br />
arr[1] = msg-&gt;angular.z;<br />
arr[2] = msg-&gt;linear.y;<br />
ROS_INFO(&#8220;linear.x : %f&#8221;, msg-&gt;linear.x);<br />
ROS_INFO(&#8220;linear.y : %f&#8221;, msg-&gt;linear.y);<br />
ROS_INFO(&#8220;linear.z : %f&#8221;, msg-&gt;linear.z);<br />
ROS_INFO(&#8220;angular.x : %f&#8221;, msg-&gt;angular.x);<br />
ROS_INFO(&#8220;angular.y : %f&#8221;, msg-&gt;angular.y);<br />
ROS_INFO(&#8220;angular.z : %f&#8221;, msg-&gt;angular.z);<br />
}</p>
<p>double x = 0;<br />
double y = 0;<br />
double theta = 0;<br />
auto timer = 0;<br />
auto current = 0;<br />
double tot_time = 0;<br />
int main(int argc, char **argv)<br />
{<br />
struct timeval time_now{};<br />
gettimeofday(&amp;time_now, nullptr);</p>
<p>double dt = 0;<br />
//timer = clock();<br />
ros::init(argc, argv, &#8220;ladarbot_node&#8221;);<br />
ros::NodeHandle nh;<br />
ros::Subscriber ArduinoRos_sub = nh.subscribe(&#8220;cmd_vel2&#8243;,1000,Callback);</p>
<p>//ros::Publisher ArduinoRos_pub = nh.advertise&lt;std_msgs::Byte&gt;(&#8220;ArduinoTopic&#8221;, 1000);//<br />
ros::Publisher ArduinoRos_pub = nh.advertise&lt;geometry_msgs::Twist&gt;(&#8220;ArduinoTopic&#8221;, 1000);<br />
ros::Publisher ArduinoRos_pub2 = nh.advertise&lt;geometry_msgs::Twist&gt;(&#8220;/odometry&#8221;, 1000);<br />
ros::Rate rate(10);<br />
//std_msgs::Byte msg1;//<br />
geometry_msgs::Twist msg1;<br />
geometry_msgs::Twist msg2;<br />
ros::spinOnce();</p>
<p>while(ros::ok())<br />
{<br />
current = duration_cast&lt;milliseconds&gt;(system_clock::now().time_since_epoch()).count();<br />
msg1.linear.x = arr[0]; //Vx<br />
msg1.angular.z = arr[1]; //W<br />
msg1.linear.y = arr[2]; //Vy<br />
dt = (double)(current-timer) * 0.001;<br />
ROS_INFO(&#8220;%f&#8221;, dt);<br />
theta = theta + (arr[1]) * dt;<br />
x = x + (arr[0] * cos(theta) &#8211; arr[2] * sin(theta)) * dt;<br />
y = y + (arr[0] * sin(theta) + arr[2] * cos(theta)) * dt;<br />
tot_time = tot_time + dt;<br />
//ROS_INFO(&#8220;%f&#8221;, tot_time);</p>
<p>ROS_INFO(&#8220;x : %f&#8221;, x);<br />
ROS_INFO(&#8220;y : %f&#8221;, y);<br />
ROS_INFO(&#8220;theta : %f&#8221;, theta * (180/3.14));<br />
msg2.linear.x = x;<br />
msg2.linear.y = y;<br />
msg2.angular.z = theta;</p>
<p>ArduinoRos_pub.publish(msg1);<br />
ArduinoRos_pub2.publish(msg2);<br />
ros::spinOnce();<br />
rate.sleep();<br />
timer = current;//1<br />
}</p>
<p>return 0;<br />
}<br />
</div>
<p><span style="color: #ff9900"><strong>ROS 통한 연결 및 실행</strong></span><br />
앞서 소개했듯, A_star.py와 talker.py간 연결을 제외하면 모든 코드의 연결이 ROS로 연결되어 있다. talker.py는 ros_python package안에 존재하고, ladarbot_node.cpp는 ladarbot package안에 존재한다. 아두이노와 cpp파일 간 rosserial 연결을 도와주는 serial_node.py는 rosserial_python package안에 존재한다.<br />
실행하는 방법은 다음과 같다. 해당 명령어를 각각의 터미널 창에 입력하면 된다.</p>
<p>· sudo chmod a+rw /dev/ttyACM0 -&gt;포트 사용을 위해 유저에게 읽고 쓰는 권한 제공<br />
· roscore<br />
· rosrun ladarbot ladarbot_node<br />
· rosrun ros_python talker.py<br />
· rosrun rosserial_python serial_node.py _port:=/dev/ttyACM0 _baud:=57600</p>
<p><span style="color: #33cccc"><strong>4.2.3.사용자 조종을 통해 얻는 지도 데이터 txt저장 및 시각화</strong></span><br />
<strong><span style="color: #ff9900">로봇 현재위치 계산</span></strong><br />
자율주행을 구현하는데에도 통신 매개체로 쓰인 ladarbot_node.cpp가 여기에서도 사용된다. 이전에는 설명 안 했지만 ladarbot_node.cpp에도 로봇의 odometry(현재위치)를 계산하는 코드 부분이 있다. 코드 실행시간을 받아와 Vx, Vy, w와 곱하여 실시간으로 로봇의 현재 위치를 계산해 ros topic으로 lidar_range_node.cpp로 odometry를 전송한다. ladar_node.cpp의 해당 부분의 코드이다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>while(ros::ok())<br />
{<br />
current = duration_cast&lt;milliseconds&gt;(system_clock::now().time_since_epoch()).count();<br />
msg1.linear.x = arr[0]; //Vx<br />
msg1.angular.z = arr[1]; //W<br />
msg1.linear.y = arr[2]; //Vy<br />
dt = (double)(current-timer) * 0.001;<br />
ROS_INFO(&#8220;%f&#8221;, dt);<br />
theta = theta + (arr[1]) * dt;<br />
x = x + (arr[0] * cos(theta) &#8211; arr[2] * sin(theta)) * dt;<br />
y = y + (arr[0] * sin(theta) + arr[2] * cos(theta)) * dt;<br />
tot_time = tot_time + dt;<br />
//ROS_INFO(&#8220;%f&#8221;, tot_time);</p>
<p>ROS_INFO(&#8220;x : %f&#8221;, x);<br />
ROS_INFO(&#8220;y : %f&#8221;, y);<br />
ROS_INFO(&#8220;theta : %f&#8221;, theta * (180/3.14));<br />
msg2.linear.x = x;<br />
msg2.linear.y = y;<br />
msg2.angular.z = theta;</p>
<p>ArduinoRos_pub.publish(msg1);<br />
ArduinoRos_pub2.publish(msg2);<br />
ros::spinOnce();<br />
rate.sleep();<br />
timer = current;//1<br />
}<br />
</div>
<p><span style="color: #ff9900"><strong>mapdata를 저장한 txt파일 도출</strong></span><br />
ladar_node.cpp와 ydlidar 오픈소스인 lidar.launch에서 각각 전송해준 odometry와 lidar센서값(pointcloud)를 이용해 합쳐 map을 생성하고, 그 맵을 txt파일로 만들어 저장해주는 코드이다. 해당 작업은 lidar_range_node.cpp에서 이루어졌으며, 아래는 우선 odometry를 받아오는 코드이다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>void scanCallback2(const geometry_msgs::Twist::ConstPtr&amp; msg)<br />
{<br />
printf(&#8220;%f\t%f\t%f\n&#8221;, msg-&gt;linear.x, msg-&gt;linear.y, msg-&gt;angular.z); //degree, distance, x_pos, y_pos, theta<br />
arr[0] = msg-&gt;linear.x;<br />
arr[1] = msg-&gt;linear.y;<br />
arr[2] = msg-&gt;angular.z;<br />
}<br />
</div>
<p>다음은 lidar센서값을 lidar.launch에서 받아오는 부분의 코드이다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>void scanCallback(const sensor_msgs::LaserScan::ConstPtr&amp; scan)<br />
{<br />
int count = scan-&gt;scan_time / scan-&gt;time_increment;<br />
//printf(&#8220;[YDLIDAR INFO]: I heard a laser scan %s[%d]:\n&#8221;, scan-&gt;header.frame_id.c_str(), count);<br />
//printf(&#8220;[YDLIDAR INFO]: angle_range : [%f, %f]\n&#8221;, RAD2DEG(scan-&gt;angle_min), RAD2DEG(scan-&gt;angle_max));</p>
<p>for(int i = 0; i &lt; count; i++) {<br />
float degree = RAD2DEG(scan-&gt;angle_min + scan-&gt;angle_increment * i);<br />
//printf(&#8220;[YDLIDAR INFO]: angle-distance : [%f, %f, %i]\n&#8221;, degree, scan-&gt;ranges[i], i);<br />
if (scan-&gt;ranges[i] &gt; 0.001){<br />
printf(&#8220;%f\t%f\n&#8221;, degree, scan-&gt;ranges[i]); //degree, distance, x_pos, y_pos, theta<br />
lidar[0][i] = degree;<br />
lidar[1][i] = scan-&gt;ranges[i];<br />
}<br />
/*if(i == count &#8211; 2)<br />
{<br />
lidar[1][i] = -1.0;<br />
}*/<br />
}<br />
}<br />
</div>
<p>다음은 두 정보를 합쳐 지도로 만든 뒤 txt파일로 내보내는 코드이다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>int main(int argc, char **argv)<br />
{<br />
ofstream ofile;<br />
ofile.open(&#8220;slam.txt&#8221;);<br />
//string str = &#8220;haha&#8221;;<br />
//ofile.write(str.c_str(), str.size());</p>
<p>ros::init(argc, argv, &#8220;lidar_range_node&#8221;);<br />
ros::NodeHandle n;<br />
ros::Subscriber sub = n.subscribe&lt;sensor_msgs::LaserScan&gt;(&#8220;/scan&#8221;, 1000, scanCallback);<br />
ros::Subscriber sub2 = n.subscribe&lt;geometry_msgs::Twist&gt;(&#8220;/odometry&#8221;,1000, scanCallback2);<br />
ros::Rate rate(10);<br />
ros::spinOnce();<br />
while(ros::ok())<br />
{<br />
for(int i = 0;i &lt; 10000 ; i++)<br />
{<br />
if(lidar[1][i] != 0)<br />
ofile&lt;&lt;lidar[0][i]&lt;&lt;&#8221;\t&#8221;&lt;&lt;lidar[1][i]&lt;&lt;&#8221;\n&#8221;;<br />
}</p>
<p>ofile&lt;&lt;arr[0]&lt;&lt;&#8221;\t&#8221;&lt;&lt;arr[1]&lt;&lt;&#8221;\t&#8221;&lt;&lt;arr[2]&lt;&lt;&#8221;\n&#8221;;<br />
ros::spinOnce();<br />
rate.sleep();<br />
}<br />
ofile&lt;&lt;endl;<br />
ofile.close();<br />
return 0;<br />
}<br />
</div>
<p><span style="color: #ff9900"><strong>txt파일을 읽어 지도를 시각화하기</strong></span><br />
저장된 txt파일을 읽어 파이썬을 통해 시각화해주는 코드이다. 해당 작업을 한 코드는 slam_map.py이며, 설명할 부분이 거의 없는 간단한 코드이기 때문에 후에 전체 코드만 공개하겠다. slam_map.py를 실행하기전, txt파일을 열어 파일의 끝에 end를 추가해주어야 한다.</p>
<p><span style="color: #ff9900"><strong>실행하기</strong></span><br />
로봇을 조종하고 지도를 만들어 txt파일로 저장하기 위해서는 터미널 창에 다음과 같은 명령어를 입력해야 한다.</p>
<p>roslaunch ladarbot ladarbot.launch</p>
<p>ladarbot.launch는 ladarbot_node.cpp 및 아두이노 코드에 해당하는 ladarbot_subnode.ino, 그리고 로봇을 조종할 키보드 입력을 받아오는 코드를 한번에 실행하는 launch파일이다. 키보드 입력 받는 코드는 ros를 설치할 때 기본적으로 제공되는 파일이기에 따로 코드 설명을 하지는 않는다.<br />
그 다음 다른 터미널 창을 열어 해당 명령어를 입력한다.</p>
<p>roslaunch ydlidar_ros lidar.launch</p>
<p>lidar.launch파일을 실행하는 명령이다.<br />
다음으로 다른 터미널창을 열어 다음 명령어를 입력한다.</p>
<p>rosrun lidar_range lidar_range_node</p>
<p>해당 명령은 lidar_range_node.cpp파일을 실행하는 명령이다. 이 모든 명령을 실행하면 키보드의 I j l , u o m . 키로 로봇을 8방향으로 조종할 수 있게되며, 동시에 slam.txt파일이 생기며 그 파일안에 mapdata가 기록된다.<br />
txt파일을 시각화하고 싶다면 slam_map.py가 있는 경로에 slam.txt 파일을 복사한 다음, 터미널창에 python slam_map.py를 입력한다. 그럼 시각화된 지도를 확인할 수 있다.</p>
<p><span style="color: #ff6600"><strong>5. 실행 결과</strong></span><br />
<span style="color: #008080"><strong>5.1. 자율주행</strong></span><br />
목적지를 출발지로부터 x축으로 2.5m, y축으로 2.5m로 했을 때 동작 사진이다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_매카넘휠-7.png" rel="lightbox[40952]"><img class="alignnone size-large wp-image-41057" alt="68 ICT_매카넘휠 (7)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_매카넘휠-7-480x620.png" width="480" height="620" /></a></p>
<p><span style="color: #008080"><strong>5.2. 생성된 지도 txt파일로 저장 및 시각화</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_매카넘휠-8.png" rel="lightbox[40952]"><img class="alignnone size-full wp-image-41058" alt="68 ICT_매카넘휠 (8)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_매카넘휠-8.png" width="620" height="313" /></a></p>
<p><span style="color: #008080"><strong>5.3. 실행영상</strong></span><br />
실행영상을 추가 제출파일로 제출하였다. 해당 영상에서는 5.1에서처럼 로봇에 디스플레이를 연결한 것이 아닌, 영상 송수신기(브이젯 HDMI무선송수신기)를 통해 모니터로 화면을 띄웠다. 영상 마지막에 벽에 부딪히는 이유는 목적지를 출발점으로부터 x방향 2.5m, y방향 2.5m로 설정해 두었는데, 그 위치가 벽 속이여서 그러한 일이 발생한 것이다. 자율주행 자체에는 문제가 없다. 다만, 영상에서 보이는 정도의 거리는 문제없이 자율주행이 되지만, 주행시간을 늘리게 되면, 주행 중 zetson nano의 cpu가 다운되며 로봇이 정지하는 경우가 발생한다. A star 알고리즘 및 시각화알고리즘이 무거워 cpu다운이 일어나는 걸로 예상되며, 컴퓨터를 성능이 더 좋은 것으로 교체하면 해결될 문제로 보고 있다. 화면에 뜨는 map과 생성된 경로와, 로봇의 움직임을 함께 확인하면 된다.</p>
<p><span style="color: #ff6600"><strong>6. 사용한 제품 리스트</strong></span></p>
<table style="width: 620px" border="1" cellspacing="0" cellpadding="0">
<tbody>
<tr>
<td style="text-align: center">제품명</td>
<td style="text-align: center">디바 상품 번호</td>
</tr>
<tr>
<td style="text-align: center">스텝모터 드라이버 TB6600</td>
<td style="text-align: center">10894384</td>
</tr>
<tr>
<td style="text-align: center">lidar ydlidar X2L</td>
<td style="text-align: center">-</td>
</tr>
<tr>
<td style="text-align: center">jetson nano</td>
<td style="text-align: center">12513656</td>
</tr>
<tr>
<td style="text-align: center">arduino 및 케이블 [KEYES] 아두이노 우노 (R3) DIY 베이직 키트 [KT0030]</td>
<td style="text-align: center">-</td>
</tr>
<tr>
<td style="text-align: center">배터리 tattu 12000mah</td>
<td style="text-align: center">-</td>
</tr>
<tr>
<td style="text-align: center">display SZH-RP001</td>
<td style="text-align: center">1382391</td>
</tr>
<tr>
<td style="text-align: center">로봇 프레임(스텝모터, 메카넘휠 포함)<br />
wheel universal intelligent car chassis omni directional robot</td>
<td style="text-align: center">-</td>
</tr>
<tr>
<td style="text-align: center">통신장치 브이젯 HDMI무선송수신기</td>
<td style="text-align: center">-</td>
</tr>
</tbody>
</table>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.ntrexgo.com/archives/40952/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>[68호]일회용품을 사용하지 않는 친환경 자판기</title>
		<link>http://www.ntrexgo.com/archives/40945</link>
		<comments>http://www.ntrexgo.com/archives/40945#comments</comments>
		<pubDate>Mon, 25 Oct 2021 00:00:32 +0000</pubDate>
		<dc:creator>디바이스마트 매거진</dc:creator>
				<category><![CDATA[디바이스마트 매거진]]></category>
		<category><![CDATA[특집]]></category>
		<category><![CDATA[ict]]></category>
		<category><![CDATA[ict공모전]]></category>
		<category><![CDATA[공모전]]></category>
		<category><![CDATA[디바이스마트]]></category>
		<category><![CDATA[매거진]]></category>
		<category><![CDATA[수상작]]></category>
		<category><![CDATA[융합]]></category>
		<category><![CDATA[프로젝트]]></category>

		<guid isPermaLink="false">http://www.ntrexgo.com/?p=40945</guid>
		<description><![CDATA[디바이스마트매거진 68호 &#124; 스마트 디바이스 소형가전 쇼는 ‘나 혼자 쓴다’라는 주제를 가지고 급속히 늘어나는 단독 가구와 MZ 세대가 일상생활에서 필요로 하는 스마트 가전제품을 선보였으며, 주요 전시 품목은 생활가전, 무선가전, 미용가전, 살균가전, 미니가전 등이 있다.]]></description>
				<content:encoded><![CDATA[<p><span style="font-size: medium"><strong><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-26.png" rel="lightbox[40945]"><img class="alignnone size-large wp-image-40992" alt="68 ICT_우수상_친환경 자판기 (26)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-26-620x203.png" width="620" height="203" /></a></strong></span></p>
<p><span style="font-size: medium"><strong>2021 ICT 융합 프로젝트 공모전 우수상</strong></span></p>
<p><span style="font-size: x-large;color: #ff6600"><strong>일회용품을 사용하지 않는 친환경 자판기 </strong></span></p>
<p><span style="font-size: x-large;color: #ff6600"><strong>(Eco-friendly Vending Machine)</strong></span></p>
<p><span style="color: #ff6600"> </span></p>
<p style="text-align: right">글 | 대한상공회의소 서울기술교육센터 한승진, 김연진, 신상우, 유종선, 진민경</p>
<p>&nbsp;</p>
<p><span style="color: #ff6600"><strong>1. 심사평</strong></span><br />
<strong>칩센</strong> 최근에 여러 가지 형태로 무인음료 자판기가 설치되는 것으로 알고 있습니다. 이러한 무인 자판기는 기존과 같이 컵이 내장된 형태도 있지만, 작품과 같이 개인컵을 이용한 제품도 있는 것으로 알고 있습니다. 이미 기존에 있는 제품이라 하더라도 더 보완된 제품을 가격 경쟁력이 있게 만들 수 있다면 개발의 의미는 충분히 있습니다. 또한, 불편함이 있더라도 작품의 기획의도와 같은 목적을 보여주는 것도 좋은 방법이라 생각합니다. 이왕 echo-friendly라는 가치를 걸었다면 상용화된 1회용 컵을 구분하는 제약을 두어 제품의 목적을 분명히 밝히는 것도 좋은 방향이 아닐까 하는 생각입니다.<br />
<strong></strong></p>
<p><strong>펌테크</strong> 친환경을 고려한 실생활과 접목된 실용성과 창의성을 지닌 작품으로 생각됩니다. 전체 하드웨어 및 소프트웨어 개발 환경 구성이 작품의 성격에 맞추어 체계적으로 적절하였다. 시스템 구성중 opencv를 사용한 영상처리를 과정 및 필요기능 위주의 심플한 형태로 짜임새 있고 깔끔하게 구성한 스마트폰용 APP은 인상적이었으며 전체적으로 기획의도, 기술 구현도, 완성도 등에서 우수한 작품이라고 생각됩니다.<br />
<strong></strong></p>
<p><strong>위드로봇</strong> 아이디어를 프로토타입을 통해 개념을 확인한 부분이 훌륭합니다.<br />
<strong></strong></p>
<p><strong>뉴티씨</strong> 텀블러를 사용하도록 하는 시스템은 조금 불편하더라도 환경을 지킬 수 있는 솔루션 중 하나일 수 있다는 생각이 듭니다. 나의 편리성을 위한 것이 아닌 후세대를 위한 지구 환경을 생각하여, 일회용품 사용을 줄일 수 있는 이와 같은 시스템을 좀 더 연구해야 할 것입니다.<br />
<strong></strong></p>
<p><span style="color: #ff6600"><strong>2. 개발 배경</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-1.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40960" alt="68 ICT_우수상_친환경 자판기 (1)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-1.png" width="416" height="401" /></a></p>
<p>일회용품을 많이 사용하는 요즘, 전 세계적으로 일회용품 사용을 줄이기 위해 여러 가지 정책을 펼치고 있다. EU의 경우 올해(2021년)부터 플라스틱 세를 도입하여 플라스틱 사용 절감에 앞장서고 있다. 우리나라의 경우 커피 전문점 매장 내에서는 플라스틱 컵과 빨대를 사용할 수 없다. 또한, 슈퍼마켓에선 비닐봉지 사용이 불가하며, 대형마트에서는 포장용 테이프를 제공하지 못하게 된 상태이다.<br />
하지만 1인 가구의 증가와 더불어 코로나 바이러스로 인한 배달음식 주문량이 많아지면서 일회용품 사용량 즉, 일회용품 배출량이 나날이 증가하고 있는 추세이다. 서울디지털재단의 ‘1인 가구 증가에 따른 일회용 플라스틱 배출 실태 분석’ 보고서에 따르면 1인 가구가 배출한 일회용품 양은 일평균 30개로 조사되었으며, 이는 다인 가구에 거주하는 1인의 배출량보다 약 2.3배 많은 양이라고 한다. 또, 서울 거주 시민 1000명을 대상으로 실시한 설문에 따르면 배달 음식 주문빈도는 코로나 발생을 기준으로 약 1.4배 증가한 것으로 조사되었다고 한다.<br />
더불어 일회용 플라스틱 배출을 줄일 수 있는 방법에 대한 설문조사(1000명 대상)에서 &#8216;일회용 플라스틱 사용 저감 유도를 위한 보상체계 필요 여부&#8217;에 대해서는 응답자의 91.3%가 보상(인센티브)의 필요성을 공감하고 있는 것으로 나타났다고 한다. 보상방식으로는 &#8216;현금 지급&#8217;이 42.4%로 가장 높았고 이어서 &#8216;에코-마일리지 지급&#8217;(25.6%), &#8216;지역 화폐 지급&#8217;(18.3%) 등이 뒤를 이었다.<br />
위의 보고서 내용과 마찬가지로 팀원들 모두가 일회용품 사용의 심각성과 사용 절감에 대한 필요성 모두 느끼고 있었다. 따라서 우리는 일상 속에서 일회용품을 절감할 수 있고 이에 따른 보상을 지급하는 제품을 만들기 위해 아이디어를 모았다. 그 결과 ‘일회용품을 사용하지 않는 자판기’를 개발하게 되었다.</p>
<p><span style="color: #ff6600"><strong>3. 개발 목표</strong></span><br />
요즘 일회용품 사용을 절감하기 위한 사회적 움직임의 일환으로 일부 프랜차이즈 카페에서 플라스틱 컵 대신 개인 용기에 음료를 받으면 일정 금액을 할인해주고 있다. 이러한 서비스의 적용 범위를 확대하여 도서관, 스터디카페 또는 대학교, 공공기관 등 특정 사람들이 지속적으로 방문하는 곳에 배치된 자판기에 적용하여 일회용품 사용 절감에 이바지하도록 한다.<br />
해당 자판기를 사용할 때마다 핸드폰 번호 입력을 통해 일정 금액이 에코-마일리지로 적립되며 추후에 실제로 제품이 상용화되는 경우 마일리지를 사용할 수 있도록 한다.</p>
<p><span style="color: #ff6600"><strong>4. 작품 개요</strong></span><br />
일상 속에서 아두이노와 라즈베리 파이 그리고 젯슨 나노를 활용하였다.<br />
아두이노는 음료 결제, 선택, 추출 등 자판기의 전체적인 동작을 담당하고, 젯슨 나노는 영상처리를 통해 음료 추출 전 사용자의 텀블러가 제자리에 놓여있는지 판단하였다. 라즈베리 파이는 터치스크린을 통해 자판기 내부의 진행상황을 알려주고, 자판기 이용 후 휴대폰 번호를 입력하면 에코-마일리지를 적립함과 동시에 누적된 마일리지를 확인할 수 있도록 하였다.<br />
부가적으로 자판기 관리자를 위한 안드로이드 애플리케이션을 제작하여 자판기 내부 음료의 상태(양)를 확인하고, 음료별 누적 판매량을 통해 어느 음료가 인기가 많은지 확인 할 수 있도록 하였다.</p>
<p><span style="color: #c19b00"><strong>4.1. 개발 환경 및 개발 도구 설명</strong></span><br />
<span style="color: #339966"><strong>4.1.1. 아두이노(Arduino)</strong></span></p>
<p><span style="color: #339966"><strong><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-2.png" rel="lightbox[40945]"><img class="alignnone size-large wp-image-40962" alt="68 ICT_우수상_친환경 자판기 (2)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-2-620x242.png" width="620" height="242" /></a></strong></span><br />
아두이노는 다양한 스위치나 센서로부터 입력 값을 받아들이고 전자 장치들로 출력을 제어하여 디지털 장치를 만들기 위한 도구로, 간단한 마이크로컨트롤러를 기반으로 한 오픈 소스 컴퓨팅 플랫폼과 소프트웨어 개발 환경이다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-3.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40964" alt="68 ICT_우수상_친환경 자판기 (3)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-3.png" width="343" height="263" /></a></p>
<p>본 제품에서는 Arduino Mega 2560, Uno를 사용하여 전체적인 자판기의 동작을 구현하였다.</p>
<p><span style="color: #339966"><strong>4.1.2. 젯슨 나노(Jetson Nano)</strong></span></p>
<p><span style="color: #339966"><strong><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-4.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40966" alt="68 ICT_우수상_친환경 자판기 (4)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-4.png" width="331" height="298" /></a></strong></span><br />
젯슨 나노는 엔비디아(NVDA)가 개발한 싱글 보드로 애플리케이션에서 다수의 뉴럴 네트워크를 병렬로 실행하게 해주는 강력한 소형 컴퓨터이다.<br />
본 제품에서는 이와 같은 개발 환경에서 우분투의 vi 문서 편집기를 통해 언어 PYTHON으로 코드를 구현하고 실행 파일을 생성하였다.</p>
<p><span style="color: #339966"><strong>4.1.3. 라즈베리 파이(Raspberry Pi)</strong></span></p>
<p><span style="color: #339966"><strong><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-5.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40968" alt="68 ICT_우수상_친환경 자판기 (5)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-5.png" width="317" height="232" /></a></strong></span><br />
라즈베리 파이는 영국 잉글랜드의 라즈베리 파이 재단이 학교와 개발도상국에서 기초 컴퓨터 과학의 교육을 증진하기 위해 개발한 신용카드 크기의 싱글 보드 컴퓨터이다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-6.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40970" alt="68 ICT_우수상_친환경 자판기 (6)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-6.png" width="313" height="239" /></a></p>
<p>라즈베리 파이 OS를 실행할 때, 기본 터미널 애플리케이션은 LXTerminal이다. 해당 프롬프트에서 리눅스 명령어를 기반으로 vi 에디터 또는 문서 편집기를 이용해 실행 프로그램을 생성할 수 있다. 본 제품에서는 html과 언어 php를 사용하여 웹 파일을 생성하였다.</p>
<p><span style="color: #339966"><strong>4.1.4. 안드로이드(Android)</strong></span><br />
안드로이드는 휴대전화의 운영체제, 미들웨어, 사용자 인터페이스, 응용프로그램 등을 묶은 소프트웨어 플랫폼이다. 리눅스(Linux)2.6 커널 위에서 동작하며 운영체제, 라이브러리, 멀티미디어 사용자 인터페이스, 애플리케이션 등을 제공한다.<br />
안드로이드 프로그래밍 언어로는 JAVA와 Kotlin이 있다. 또한, 안드로이드 스튜디오는 안드로이드 앱을 빌드할 때 생산성을 높여주도록 다양한 기능을 제공한다. 본 제품에서는 프로그래밍 언어로 JAVA를 사용하였다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-7.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40972" alt="68 ICT_우수상_친환경 자판기 (7)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-7.png" width="609" height="241" /></a><br />
Android Emulator의 각 인스턴스는 Android Virtual Device(AVD)를 사용하여 시뮬레이션된 기기의 Android 버전과 하드웨어 특성을 지정한다. 효과적으로 앱을 테스트하려면 앱이 실행될 각 기기를 모델링하는 AVD를 만들어야 한다. AVD를 만들고 관리하려면 AVD Manager를 사용하면 된다.<br />
<span style="color: #b9ae08"><strong>4.2. 작품 구성</strong></span><br />
<span style="color: #339966"><strong>4.2.1. 부품 리스트</strong></span></p>
<table style="width: 620px" border="1" cellspacing="0" cellpadding="0">
<tbody>
<tr>
<td style="text-align: center">부품명</td>
<td style="text-align: center">디바 상품 번호</td>
</tr>
<tr>
<td style="text-align: center">물높이(수위) 센서 스위치</td>
<td style="text-align: center"></td>
</tr>
<tr>
<td style="text-align: center">PLEOMAX W-210 PC캠 화상캠 웹캠</td>
<td style="text-align: center"></td>
</tr>
<tr>
<td style="text-align: center">라즈베리파이 5인치 HDMI LCD 터치스크린 모니터</td>
<td style="text-align: center">1382229</td>
</tr>
<tr>
<td style="text-align: center">아두이노 워터펌프 모터 3~5V</td>
<td style="text-align: center"></td>
</tr>
<tr>
<td style="text-align: center">아두이노 워터펌프용  실리콘 튜브(1m)</td>
<td style="text-align: center"></td>
</tr>
<tr>
<td style="text-align: center">아두이노 4채널 5V 릴레이 모듈</td>
<td style="text-align: center">1327545</td>
</tr>
<tr>
<td style="text-align: center">아두이노 WIFI ESP8266</td>
<td style="text-align: center">1279338</td>
</tr>
<tr>
<td style="text-align: center">아두이노 RFID-RC522 리더기</td>
<td style="text-align: center">1279308</td>
</tr>
<tr>
<td style="text-align: center">아두이노 수동 부저 모듈</td>
<td style="text-align: center">10916342</td>
</tr>
<tr>
<td style="text-align: center">아두이노 LED</td>
<td style="text-align: center"></td>
</tr>
<tr>
<td style="text-align: center">아두이노 6&#215;6 택트 스위치</td>
<td style="text-align: center"></td>
</tr>
<tr>
<td style="text-align: center">아두이노 우노 Uno R3 호환보드</td>
<td style="text-align: center">1245596</td>
</tr>
<tr>
<td style="text-align: center">아두이노 메가 2560 호환보드</td>
<td style="text-align: center">10918650</td>
</tr>
<tr>
<td style="text-align: center">NVIDIA Jetson Nano Development Kit-B01</td>
<td style="text-align: center">12513656</td>
</tr>
<tr>
<td style="text-align: center">라즈베리파이4  (Raspberry Pi 4 Model B) 2GB</td>
<td style="text-align: center">12234533</td>
</tr>
</tbody>
</table>
<p><span style="color: #339966"> <strong>4.2.2. 회로도</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-9.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40975" alt="68 ICT_우수상_친환경 자판기 (9)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-9.png" width="606" height="332" /></a> <a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-10.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40976" alt="68 ICT_우수상_친환경 자판기 (10)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-10.png" width="607" height="433" /></a><br />
<span style="color: #339966"> <strong>4.2.3. 시스템 구성도</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-11.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40977" alt="68 ICT_우수상_친환경 자판기 (11)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-11.png" width="620" height="377" /></a></p>
<p><span style="color: #339966"><strong>4.2.4. 작품 구상도</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-12.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40978" alt="68 ICT_우수상_친환경 자판기 (12)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-12.png" width="620" height="377" /></a></p>
<p><span style="color: #ff6600"><strong>5. 작품 설명</strong></span><br />
<span style="color: #c19b00"><strong>5.1. 작품 제작 및 동작</strong></span><br />
<strong>5.1.1. 소켓 및 스레드 통신</strong><br />
자판기에 사용되는 장치들 간의 통신을 위해 소켓을 사용하여 서버를 구축하고 각각의 장치(아두이노, 젯슨 나노, 라즈베리 파이)들이 클라이언트가 되도록 하였다. 서버를 구축하는 데 있어서 C, PYTHON, JAVA 등의 언어 중 JAVA를 사용하였다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-13.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40979" alt="68 ICT_우수상_친환경 자판기 (13)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-13.png" width="620" height="466" /></a><br />
스레드를 사용하지 않으면 여러 클라이언트의 접속이 불가하고, 다른 동작을 실행할 수 없다. 따라서 멀티 스레드를 사용하였고 초기에는 서버 하나에 여러 개의 클라이언트가 붙도록 구현하였다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-14.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40980" alt="68 ICT_우수상_친환경 자판기 (14)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-14.png" width="620" height="338" /></a><br />
모든 클라이언트는 접속 시에 자신의 아이디를 서버에 전송한다. 이를 토대로 서버에서는 등록된 아이디 리스트와 접속 아이디를 비교, 검증한 후 클라이언트의 접속을 허용한다. 또한, 접속된 아이디를 기준으로 클라이언트 간 메시지를 보낼 수 있도록 하였다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-15.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40981" alt="68 ICT_우수상_친환경 자판기 (15)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-15.png" width="620" height="373" /></a></p>
<p><span style="color: #339966"><strong>5.1.2. 아두이노(Arduino)</strong></span><br />
<strong>음료 결제</strong><br />
자판기의 결제 기능을 구현하기 위해 RFID 리더기 모듈을 사용하여 자판기 사용자의 카드가 인식되도록 하였다. 이후 전체 동작을 위해 RFID 리더기에 카드가 인식되면 ‘음료 선택’ 동작으로 넘어가도록 하였다. Arduino Mega 2560(이후 Mega로 칭함.)에서 Arduino Uno(이후 Uno로 칭함.)로 시리얼 통신으로 일정 값을 보내주고 Uno에서 값을 판단하여 재전송 하도록 한다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-2.jpg" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40961" alt="68 ICT_우수상_친환경 자판기 (2)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-2.jpg" width="596" height="424" /></a></p>
<p><strong>음료 선택</strong><br />
사용자가 상황에 맞게 음료를 선택할 수 있도록 버튼과 LED를 구현하였다. LED는 현재 해당 음료를 선택할 수 있다는 신호이며, 버튼은 음료를 추출하도록 한다. 서버에서 결제가 되었다는 값을 전달 받으면 LED를 점등함과 동시에 버튼 기능을 활성화한다. 그리고 사용자가 버튼을 누를 시 해당 버튼에 맞는 음료의 정보를 Mega에서 시리얼 통신으로 Uno에게 메시지를 전송하여 ‘음료 추출’ 동작이 진행되도록 하였다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-3.jpg" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40963" alt="68 ICT_우수상_친환경 자판기 (3)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-3.jpg" width="594" height="424" /></a></p>
<p><strong>음료 추출</strong><br />
음료를 추출하기 위해서 워터 펌프 모듈을 사용하였다. 워터 펌프 모듈의 불안정한 작동을 보안하기 위해 릴레이 모듈을 추가하였다. Mega에서 사용자가 선택한 음료 정보를 시리얼 통신으로 Uno에게 넘겨주고 음료 정보와 일치하는 워터 펌프를 작동시킨다. 음료 추출이 끝나면 부저를 통해 종료 음을 출력한다.<br />
이후 모든 동작이 완료되면 언제든 사용자의 카드를 읽을 수 있는 초기 상태(결제 대기 상태)로 되돌린다.</p>
<p><strong>음료 잔량 확인</strong><br />
플로트 스위치 센서를 사용하여 음료 잔량을 확인하도록 하였다. 부력으로 음료 표면에 떠 있다가 바닥에 닿으면 음료가 부족하다고 판단하여 LED를 소등한다. 그리고 사용자가 음료 선택 버튼을 눌러도 동작하지 않도록 하였다.<br />
관리자가 애플리케이션을 통해 음료 잔량 정보를 요청하면 현재 모든 음료의 수위 센서 상태를 읽어 서버를 통해 애플리케이션에 전달한다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-16.png" rel="lightbox[40945]"><img class="alignnone size-large wp-image-40982" alt="68 ICT_우수상_친환경 자판기 (16)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-16-460x620.png" width="460" height="620" /></a></p>
<p><strong>매출 관리</strong><br />
애플리케이션에서 자판기 누적 판매량 기능을 구현하기 위해 음료 펌프가 작동된 횟수를 Mega의 비휘발성 메모리인 EEPROM에 저장하도록 하였다.<br />
관리자가 애플리케이션을 통해 누적 판매량 정보를 요청하면 EEPROM에 저장된 값을 읽어 서버를 통해 애플리케이션에 전달한다.</p>
<p><span style="color: #339966"><strong>5.1.3. 젯슨 나노(Jetson Nano)</strong></span><br />
<strong>컵 인식</strong><br />
먼저 Window 환경에서 opencv와 tensorflow를 사용하여 자판기 사용자가 놓은 컵을 인식하도록 하였다. 컵이 인식되면 웹캠을 종료하고 사진을 찍도록 하였다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-17.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40983" alt="68 ICT_우수상_친환경 자판기 (17)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-17.png" width="359" height="267" /></a><br />
코드의 정상 동작 여부를 확인하고 젯슨 나노에서 개발 환경을 구축한 후 멀티 스레드를 사용하여 Mega에서 전송한 ‘음료 결제’ 메시지를 받으면 카메라를 동작시켜 컵을 인식하도록 하였다. 컵이 인식되면 Mega로 완료 메시지를 보내 계속해서 자판기의 동작을 수행한다. 컵이 인식되지 않으면 자판기의 동작을 중단하고 환불 페이지로 이동한다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-18.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40984" alt="68 ICT_우수상_친환경 자판기 (18)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-18.png" width="597" height="360" /></a></p>
<p><span style="color: #339966"><strong>5.1.4. 라즈베리 파이(Raspberry Pi)</strong></span><br />
<strong>진행 상황 출력</strong><br />
라즈베리 파이에 부착된 터치스크린을 통하여 자판기 동작 진행상황 및 이용 순서에 맞게 웹 페이지를 띄워 사용자에게 알려준다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-4.jpg" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40965" alt="68 ICT_우수상_친환경 자판기 (4)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-4.jpg" width="595" height="349" /></a></p>
<p><strong>에코-마일리지 적립</strong><br />
음료 추출이 종료되면 바로 에코-마일리지 적립 페이지로 이동한다. 자신의 전화번호를 입력하면 일정 금액의 마일리지가 적립된다. 입력을 완료하면 방금 적립된 마일리지와 누적된 마일리지 모두를 확인 할 수 있고 자동으로 페이지가 종료된다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-19.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40985" alt="68 ICT_우수상_친환경 자판기 (19)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-19.png" width="597" height="351" /></a></p>
<p>사용자가 입력한 정보는 MariaDB를 통해 관리한다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-20.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40986" alt="68 ICT_우수상_친환경 자판기 (20)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-20.png" width="593" height="306" /></a></p>
<p><span style="color: #339966"><strong>5.1.5. 안드로이드(Android)</strong></span><br />
<strong>하단 탭</strong><br />
BottomNavigationView와 Fragment를 사용하여 하단 탭을 생성하였다. 하단 탭 클릭을 통해 ‘상태’ 페이지와 ‘판매량’ 페이지로 이동한다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-21.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40987" alt="68 ICT_우수상_친환경 자판기 (21)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-21.png" width="596" height="127" /></a></p>
<p><strong>로그인(서버 접속)</strong><br />
메인 화면 상단에 로그인을 위한 옵션 버튼을 추가하였다. 해당 버튼을 선택하면 로그인 창을 띄운다.<br />
해당 창에서 서버 접속(로그인)을 위한 IP, PORT, ID, PASSWORD를 입력한다. 미리 설정한 값이 기본 값으로 입력되어 있어 보다 편리하게 접속할 수 있다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-22.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40988" alt="68 ICT_우수상_친환경 자판기 (22)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-22.png" width="587" height="620" /></a></p>
<p><strong>음료 잔량 확인</strong><br />
자판기 내부 음료의 잔량을 자판기 관리자가 수시로 확인 할 수 있도록 ‘상태’ 페이지 안에 CONDITION 버튼을 추가했다. 버튼을 누르면 서버를 통해 자판기 내부의 MCU에 특정 메시지를 전송하여 음료의 잔량을 요청한다.<br />
자판기 내부의 음료가 충분하다면 아래 사진과 같이 음료 아이콘의 테두리를 강조 해준다.<br />
<strong></strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-23.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40989" alt="68 ICT_우수상_친환경 자판기 (23)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-23.png" width="594" height="401" /></a></p>
<p><strong>음료 누적 판매량 확인</strong><br />
‘판매량’ 페이지의 초기 화면은 아래와 같이 ‘?개’로 나타낸다. RENEWAL 버튼을 누르면 서버를 통해 특정 메시지를 전송하여 음료 각각의 누적 판매량을 보여준다.<br />
RESET 버튼을 누르게 되면 서버를 통해 판매량을 초기화 해달라는 메시지를 MCU에게 전송하여 각 음료의 누적 판매량을 모두 0개로 초기화한다.<br />
<strong></strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-24.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40990" alt="68 ICT_우수상_친환경 자판기 (24)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-24.png" width="598" height="408" /></a></p>
<p><span style="color: #ff6600"><strong>6. 전체 흐름도</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-25.png" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40991" alt="68 ICT_우수상_친환경 자판기 (25)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-25.png" width="599" height="616" /></a></p>
<p><strong style="color: #ff6600">7. 최종구현</strong></p>
<p>&nbsp;</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-5.jpg" rel="lightbox[40945]"><img class="alignnone size-large wp-image-40967" alt="68 ICT_우수상_친환경 자판기 (5)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-5-534x620.jpg" width="534" height="620" /></a></p>
<p><strong style="color: #ff6600">8. 시연</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-7.jpg" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40971" alt="68 ICT_우수상_친환경 자판기 (7)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-7.jpg" width="598" height="541" /></a></p>
<p><span style="color: #ff6600"><strong>9. 결과 및 향후 목표</strong></span><br />
<span style="color: #c19b00"><strong>9.1. 결과</strong></span><br />
자판기에서 일회용품 사용을 줄이기 위해 초기에 기획한 기능으로 영상처리를 통한 텀블러 인식, 에코-마일리지 적립 등을 모두 구현하였다. 정상적으로 모든 기능이 동작하였지만 몇 가지의 아쉬운 점이 발생하였다.<br />
먼저, 음료의 잔량을 측정하는 플로트 스위치 센서의 동작이 불안정하였다. 무게 센서나 무접점 수위 센서를 사용했으면 보다 안정된 동작을 구현할 수 있을 것이라 생각하였다. 다음으로 영상처리 부분에서 오픈 소스를 활용하다보니 필요 이상의 학습데이터로 인해 프로세서의 부담이 커져 텀블러 인식 속도에 영향을 미쳤다. 머신러닝을 접목하여 직접 필요한 이미지만 학습시킨다면 인식 속도를 개선할 수 있을 것이라 생각한다. 마지막으로 텀블러 크기에 따라 음료 추출량을 조절할 수 있는 방법에 대해 생각해보려 한다.<br />
<strong></strong></p>
<p><span style="color: #c19b00"><strong>9.2. 향후 목표</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-8.jpg" rel="lightbox[40945]"><img class="alignnone size-full wp-image-40973" alt="68 ICT_우수상_친환경 자판기 (8)" src="http://www.ntrexgo.com/wp-content/uploads/2021/12/68-ICT_우수상_친환경-자판기-8.jpg" width="301" height="385" /></a></p>
<p>본 제품은 소켓 통신을 하기 위해 와이파이를 사용한다. 하지만 와이파이를 대체할 수 있는 IoT 전용망이 전국적으로 구축되고 있다. 이는 유지비용 측면에서 최소 350원에서 최대 2,000원 정도로 저렴한 요금을 제공한다. 또 넓은 커버리지를 제공하여 본 제품이 상용화된다면 IoT 전용망을 통해 비용을 절감할 수 있다.<br />
현재 애플리케이션은 자판기 관리자용으로 한정적인 기능을 제공한다. 이를 보완하기 위해 다양한 오픈 API를 사용할 수 있다. 예를 들면 구글 MAP API를 통해 자판기의 위치 정보를 제공하여 사용자는 보다 쉽게 자판기 이용이 가능하고, 관리자는 용이하게 유지 보수를 할 수 있다.<br />
해당 자판기는 현재 일회용품을 사용하지 않는 것이 유일한 친환경적인 요소이다. 이를 확장하여 태양열 발전을 통한 전기 사용 등 친환경적인 요소를 추가적으로 접목시켜 환경 보호에 더욱 기여할 수 있다.</p>
<p><span style="color: #ff6600"><strong>10. 참고자료</strong></span><br />
· 파이낸셜 뉴스, &#8220;1인 가구 플라스틱&#8221;, https://www.fnnews.com/news/202009181711464621<br />
· 땅오니 로봇 코딩 블로그, &#8220;TCP/IP 소켓 통신&#8221;, https://ddangeun.tistory.com/31<br />
· 멈춤보단 천천히라도, &#8220;파이썬 소켓&#8221;, https://webnautes.tistory.com/1381<br />
· IT, 정보보안 자료실, &#8220;파이썬 멀티쓰레드&#8221;, https://nalara12200.tistory.com/153<br />
· 명월 일지, &#8220;소켓통신&#8221;, https://nowonbun.tistory.com/315<br />
· 토이메이커스, &#8220;아두이노 피에조 스피커“, https://blog.naver.com/yulian/221748202220<br />
· 뤼즈나의 IT 블로그, “아두이노 워터 펌프”, https://in-reason.tistory.com/16<br />
· 하이! 제니스, “아두이노 RFID&#8221;, https://m.blog.naver.com/chandong83/220920789808<br />
· 에듀이노 코딩 스쿨, “ESP8266&#8243;, https://blog.naver.com/PostView.nhn?blogId=eduino&amp;logNo=221152914869<br />
· 폴나의 공방, “아두이노 시리얼 통신”, https://m.blog.naver.com/darknisia/221234187170<br />
· 몽구스 프로그래밍, “아두이노 인터럽트”, https://m.blog.naver.com/PostView.nhn?blogId=yuyyulee&amp;logNo=220310875023&amp;proxyReferer=https:%2F%2Fwww.google.com%2F<br />
· YouTube, &#8220;아두이노 RFID&#8221;, https://www.youtube.com/watch?v=SQ IGilMagm0<br />
· 테크월드 뉴스, “젯슨 나노”, http://www.epnc.co.kr/news/articleView.html?idxno=95313<br />
· MANUAL FACTORY, &#8220;우분투 설치&#8221;, https://www.manualfactory.net/13400<br />
· DoProgramming, &#8220;젯슨나노&#8221;, https://doprogramming.tistory.com/category/%ED%94%84%EB%A1%9C%EA%B7%B8%EB%9E%98%EB%B0%8D/Jetson%20Nano<br />
· 제너럴공국, &#8220;젯슨나노 텐서플로우&#8221;, https://generalthird.tistory.com/m/15<br />
· 멈춤보단 천천히라도, &#8220;opencv&#8221;, https://webnautes.tistory.com/1186<br />
· 개발하는 도치, &#8220;Seleninum&#8221;, https://heodolf.tistory.com/48<br />
· 삶의 향기, &#8220;html 창 닫기&#8221;, https://lia47.tistory.com/995<br />
· 안드로이드 스튜디오, Android Emulator, https://developer.android.com/studio/run/emulator?hl=ko<br />
· Bugwhale World, 라즈베리파이 라즈비안 APM 설치하기 https://bugwhale.tistory.com/entry/raspberrypi-raspbian-apm-install<br />
· 정재곤, 「Do it! 안드로이드 앱 프로그래밍」, 이지스퍼블리싱, 2020</p>
<p><span style="color: #ff6600"><strong>11. 소스코드</strong></span><br />
<span style="color: #0000ff"><strong>MCU(아두이노) : MAGA</strong></span></p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>#include &lt;SoftwareSerial.h&gt;<br />
#include &#8220;WiFiEsp.h&#8221;<br />
#include &lt;TimerOne.h&gt;<br />
#include &lt;Wire.h&gt;<br />
#include &lt;EEPROM.h&gt;<br />
#include &lt;SPI.h&gt; // RFID를 위한 SPI 라이브러리<br />
#include &lt;MFRC522.h&gt;// RFID 라이브러리</p>
<p>#define DEBUG<br />
#define DEBUG_WIFI<br />
#define AP_SSID &#8220;embsystem2&#8243;<br />
#define AP_PASS &#8220;embsystem20&#8243;<br />
#define SERVER_NAME &#8220;192.168.1.20&#8243;<br />
#define SERVER_PORT 5000<br />
#define LOGID &#8220;ECO_ARD&#8221;<br />
#define PASSWD &#8220;PASSWD&#8221;<br />
#define CMD_SIZE 50<br />
#define ARR_CNT 5<br />
#define SS_PIN 53 //RFID SS(SDA:ChipSelect) PIN<br />
#define RST_PIN 5 //RFID Reset PIN<br />
#define led1 10<br />
#define led2 9<br />
#define led3 8<br />
#define WLV_PIN1 A0<br />
#define WLV_PIN2 A1<br />
#define WLV_PIN3 A2</p>
<p>//SoftwareSerial Serial2(6, 7);<br />
MFRC522 mfrc(SS_PIN, RST_PIN); //RFID 라이브러리<br />
//MFRC522::MIFARE_Key key;</p>
<p>char eepromPw[5]; //(eeprom에 저장된)비밀번호</p>
<p>char sendBuf[CMD_SIZE];<br />
bool timerIsrFlag = false;<br />
unsigned int secCount;<br />
int tag;</p>
<p>WiFiEspClient client;<br />
int drinkslt = 0; // 음료 선택<br />
boolean sltflag = false; // ok 수신 플래그</p>
<p>int CokeCount;<br />
int FantaCount;<br />
int SpriteCount;</p>
<p>int watervalue1;<br />
int watervalue2;<br />
int watervalue3;</p>
<p>int waterlv1 = 1;<br />
int waterlv2 = 1;<br />
int waterlv3 = 1;</p>
<p>int buzzflag = 0; // 부저<br />
int Checkflag = 0; // RFID</p>
<p>char received;</p>
<p>void isr1()<br />
{<br />
drinkslt = 1;<br />
// Serial2.write(&#8220;a&#8221;);<br />
}<br />
void isr2()<br />
{<br />
drinkslt = 2;<br />
// secCount2 = 0;<br />
// Serial2.write(&#8220;b&#8221;);<br />
}<br />
void isr3()<br />
{<br />
drinkslt = 3;<br />
// secCount3 = 0;<br />
// Serial2.write(&#8220;c&#8221;);<br />
}</p>
<p>void setup() {<br />
Serial.begin(9600); //DEBUG<br />
Serial2.begin(9600);<br />
wifi_Setup();<br />
SPI.begin(); // SPI 시작<br />
mfrc.PCD_Init(); // RF 모듈 시작</p>
<p>attachInterrupt(3, isr1, RISING); //20번<br />
attachInterrupt(0, isr2, RISING); //2번<br />
attachInterrupt(1, isr3, RISING); //3번</p>
<p>pinMode(led1, OUTPUT);<br />
pinMode(led2, OUTPUT);<br />
pinMode(led3, OUTPUT);</p>
<p>digitalWrite(led1, LOW);<br />
digitalWrite(led2, LOW);<br />
digitalWrite(led3, LOW);</p>
<p>Timer1.initialize(1000000);<br />
Timer1.attachInterrupt(timerIsr); // timerIsr to run every 1 seconds</p>
<p>readEeprom();<br />
}</p>
<p>void loop() {<br />
if (client.available()) {<br />
socketEvent();<br />
}<br />
if (timerIsrFlag)<br />
{<br />
timerIsrFlag = false;<br />
if (!(secCount % 5))<br />
{<br />
if (!client.connected()) {<br />
server_Connect();<br />
}<br />
}<br />
}</p>
<p>//카드가 인식 안되었다면 더이상 진행하지 말고 빠져나감<br />
if (mfrc.PICC_IsNewCardPresent())<br />
{<br />
if (mfrc.PICC_ReadCardSerial())<br />
{<br />
for (byte i = 0; i &lt; mfrc.uid.size; i++) {<br />
Serial.print(mfrc.uid.uidByte[i] &lt; 0&#215;10 ? &#8221; 0&#8243; : &#8221; &#8220;);<br />
Serial.print(mfrc.uid.uidByte[i], DEC);<br />
}<br />
Serial.println();<br />
Serial2.write(&#8216;x&#8217;);<br />
delay(500);<br />
mfrc.PICC_HaltA();<br />
}<br />
}</p>
<p>if (waterlv1 &amp;&amp; drinkslt == 1)<br />
{<br />
if ( sltflag )<br />
{<br />
Serial2.write(&#8216;a&#8217;);<br />
delay(500);<br />
digitalWrite(led2, LOW);<br />
digitalWrite(led3, LOW);<br />
sprintf(sendBuf , &#8220;[ECO_WEB]chooseok\n&#8221;);<br />
client.write(sendBuf, strlen(sendBuf));<br />
sltflag = false;<br />
CokeCount++;<br />
EEPROM.write(1, CokeCount);<br />
drinkslt = 0;<br />
}<br />
}<br />
else if (waterlv2 &amp;&amp; drinkslt == 2)<br />
{<br />
if ( sltflag )<br />
{<br />
Serial2.write(&#8216;b&#8217;);<br />
delay(500);<br />
digitalWrite(led1, LOW);<br />
digitalWrite(led3, LOW);<br />
sprintf(sendBuf , &#8220;[ECO_WEB]chooseok\n&#8221;);<br />
client.write(sendBuf, strlen(sendBuf));<br />
sltflag = false;<br />
FantaCount++;<br />
EEPROM.write(2, FantaCount);<br />
drinkslt = 0;<br />
}<br />
}<br />
else if (waterlv3 &amp;&amp; drinkslt == 3)<br />
{<br />
if ( sltflag )<br />
{<br />
Serial2.write(&#8216;c&#8217;);<br />
delay(500);<br />
digitalWrite(led1, LOW);<br />
digitalWrite(led2, LOW);<br />
sprintf(sendBuf , &#8220;[ECO_WEB]chooseok\n&#8221;);<br />
client.write(sendBuf, strlen(sendBuf));<br />
sltflag = false;<br />
SpriteCount++;<br />
EEPROM.write(3, SpriteCount);<br />
drinkslt = 0;<br />
}<br />
}</p>
<p>if (Serial2.available())<br />
{<br />
received = Serial2.read();<br />
Serial.println(received);<br />
if (received == &#8216;x&#8217;)<br />
{<br />
sprintf(sendBuf , &#8220;[ECO_CAM]camon\n&#8221;);<br />
client.write(sendBuf, strlen(sendBuf));<br />
sprintf(sendBuf , &#8220;[ECO_WEB]camon\n&#8221;);<br />
client.write(sendBuf, strlen(sendBuf));<br />
drinkslt = 0;<br />
}<br />
else if (received == &#8216;o&#8217;)<br />
{<br />
digitalWrite(led3, LOW);<br />
digitalWrite(led1, LOW);<br />
digitalWrite(led2, LOW);<br />
delay(100);<br />
}<br />
}<br />
}</p>
<p>void socketEvent()<br />
{<br />
int i = 0;<br />
char * pToken;<br />
char * pArray[ARR_CNT] = {0};<br />
char recvBuf[CMD_SIZE] = {0};<br />
int len;</p>
<p>Serial.print(&#8220;socket ok &#8220;);<br />
sendBuf[0] = &#8221;;<br />
len = client.readBytesUntil(&#8216;\n&#8217;, recvBuf, CMD_SIZE);<br />
client.flush();<br />
#ifdef DEBUG<br />
Serial.print(&#8220;recv : &#8220;);<br />
Serial.println(recvBuf);<br />
#endif<br />
pToken = strtok(recvBuf, &#8220;[@]&#8220;);<br />
while (pToken != NULL)<br />
{<br />
pArray[i] = pToken;<br />
if (++i &gt;= ARR_CNT)<br />
break;<br />
pToken = strtok(NULL, &#8220;[@]&#8220;);<br />
}<br />
if (!strncmp(pArray[1], &#8221; New&#8221;, 4)) // New Connected<br />
{<br />
Serial.write(&#8216;\n&#8217;);<br />
return ;<br />
}<br />
else if (!strncmp(pArray[1], &#8221; Alr&#8221;, 4)) //Already logged<br />
{<br />
Serial.write(&#8216;\n&#8217;);<br />
client.stop();<br />
server_Connect();<br />
return ;<br />
}<br />
else if (!strncmp(pArray[1], &#8220;camok&#8221;, 5)) //rfid ok<br />
{<br />
waterlv_check();<br />
sltflag = true;<br />
drinkslt = 0;<br />
digitalWrite(led1, HIGH);<br />
digitalWrite(led2, HIGH);<br />
digitalWrite(led3, HIGH);<br />
if (!waterlv1)<br />
digitalWrite(led1, LOW);<br />
if (!waterlv2)<br />
digitalWrite(led2, LOW);<br />
if (!waterlv3)<br />
digitalWrite(led3, LOW);<br />
if (!waterlv1 &amp;&amp; !waterlv2 &amp;&amp; !waterlv3)<br />
{<br />
Serial2.write(&#8216;d&#8217;);<br />
sprintf(sendBuf, &#8220;[ECO_WEB]empty\n&#8221;);<br />
client.write(sendBuf, strlen(sendBuf));<br />
}<br />
return ;<br />
}<br />
else if (!strncmp(pArray[1], &#8220;error&#8221;, 5)) //Error<br />
{<br />
Serial.write(&#8216;\n&#8217;);<br />
Serial2.write(&#8216;d&#8217;);<br />
return ;<br />
}<br />
else if (!strncmp(pArray[1], &#8220;STATE&#8221;, 5)) //State<br />
{<br />
waterlv_check();<br />
sprintf(sendBuf, &#8220;[ECO_APP]DRINK@%d@%d@%d\n&#8221;, waterlv1, waterlv2, waterlv3);<br />
client.write(sendBuf, strlen(sendBuf));<br />
return;<br />
}<br />
else if (!strncmp(pArray[1], &#8220;RENEWAL&#8221;, 7)) //Renewal<br />
{<br />
sprintf(sendBuf, &#8220;[ECO_APP]SELL@%d@%d@%d\n&#8221;, CokeCount, FantaCount, SpriteCount);<br />
client.write(sendBuf, strlen(sendBuf));<br />
return;<br />
}<br />
else if (!strncmp(pArray[1], &#8220;RESET&#8221;, 5)) //Count Reset<br />
{<br />
CokeCount = 0;<br />
EEPROM.write(1, CokeCount);<br />
FantaCount = 0;<br />
EEPROM.write(2, FantaCount);<br />
SpriteCount = 0;<br />
EEPROM.write(3, SpriteCount);<br />
sprintf(sendBuf, &#8220;[ECO_APP]SELL@%d@%d@%d\n&#8221;, CokeCount, FantaCount, SpriteCount);<br />
client.write(sendBuf, strlen(sendBuf));<br />
return;<br />
}<br />
else {<br />
sprintf(sendBuf, &#8220;[%s]%s@%s\n&#8221;, pArray[0], pArray[1], pArray[2]);<br />
}<br />
client.write(sendBuf, strlen(sendBuf));<br />
client.flush();</p>
<p>#ifdef DEBUG<br />
Serial.print(&#8220;, send : &#8220;);<br />
Serial.print(sendBuf);<br />
#endif<br />
}</p>
<p>void timerIsr()<br />
{<br />
timerIsrFlag = true;<br />
secCount++;<br />
}<br />
void wifi_Setup() {<br />
Serial3.begin(9600);<br />
wifi_Init();<br />
server_Connect();<br />
}<br />
void wifi_Init()<br />
{<br />
do {<br />
WiFi.init(&amp;Serial3);<br />
if (WiFi.status() == WL_NO_SHIELD) {<br />
#ifdef DEBUG_WIFI<br />
Serial.println(&#8220;WiFi shield가 존재하지 않습니다.&#8221;);<br />
#endif<br />
}<br />
else<br />
break;<br />
} while (1);</p>
<p>#ifdef DEBUG_WIFI<br />
Serial.print(&#8220;WiFi 연결을 시도합니다.&#8221;);<br />
//Serial.println(AP_SSID);<br />
#endif<br />
while (WiFi.begin(AP_SSID, AP_PASS) != WL_CONNECTED) {</p>
<p>#ifdef DEBUG_WIFI<br />
Serial.print(&#8220;WiFi 연결을 시도합니다.&#8221;);<br />
//Serial.println(AP_SSID);<br />
#endif<br />
}</p>
<p>#ifdef DEBUG_WIFI<br />
Serial.println(&#8220;WiFi 연결에 성공하였습니다.&#8221;);<br />
printWifiStatus();<br />
#endif<br />
}<br />
int server_Connect()<br />
{<br />
#ifdef DEBUG_WIFI<br />
Serial.println(&#8220;Server 연결을 시도합니다.&#8221;);</p>
<p>#endif</p>
<p>if (client.connect(SERVER_NAME, SERVER_PORT)) {<br />
#ifdef DEBUG_WIFI<br />
Serial.println(&#8220;Server 연결에 성공하였습니다.&#8221;);<br />
#endif<br />
client.print(&#8220;["LOGID":"PASSWD"]&#8220;);<br />
}<br />
else<br />
{<br />
#ifdef DEBUG_WIFI<br />
Serial.println(&#8220;Server 연결에 실패하였습니다.&#8221;);<br />
#endif<br />
}<br />
}<br />
void printWifiStatus()<br />
{<br />
// print the SSID of the network you&#8217;re attached to<br />
//Serial.print(&#8220;SSID: &#8220;);<br />
//Serial.println(WiFi.SSID());<br />
// print your WiFi shield&#8217;s IP address<br />
IPAddress ip = WiFi.localIP();<br />
//Serial.print(&#8220;IP Address: &#8220;);</p>
<p>Serial.println(ip);<br />
// print the received signal strength<br />
long rssi = WiFi.RSSI();<br />
//Serial.print(&#8220;Signal strength (RSSI):&#8221;);<br />
//Serial.print(rssi);<br />
//Serial.println(&#8221; dBm&#8221;);<br />
}</p>
<p>//EEPROM에 저장된 판매량을 읽어옴<br />
void readEeprom() {<br />
CokeCount = EEPROM.read(1);<br />
// Serial.print(CokeCount);<br />
FantaCount = EEPROM.read(2);<br />
//Serial.print(FantaCount);<br />
SpriteCount = EEPROM.read(3);<br />
//Serial.print(SpriteCount);<br />
}<br />
void waterlv_check()<br />
{<br />
watervalue1 = analogRead(WLV_PIN1);<br />
watervalue2 = analogRead(WLV_PIN2);<br />
watervalue3 = analogRead(WLV_PIN3);<br />
Serial.println(watervalue1);<br />
if (watervalue1 &gt;= 1000)<br />
{<br />
waterlv1 = 0;<br />
}<br />
else<br />
{<br />
waterlv1 = 1;<br />
}<br />
Serial.println(watervalue2);<br />
if (watervalue2 &gt;= 1000)<br />
{<br />
waterlv2 = 0;<br />
}<br />
else<br />
{<br />
waterlv2 = 1;<br />
}<br />
Serial.println(watervalue3);<br />
if (watervalue3 &gt;= 1000)<br />
{<br />
waterlv3 = 0;<br />
}<br />
else<br />
{<br />
waterlv3 = 1;<br />
}<br />
}<br />
</div>
<p><span style="color: #0000ff"><strong>MCU(아두이노) : UNO</strong></span></p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>#include &lt;SoftwareSerial.h&gt;<br />
#include &lt;SPI.h&gt;<br />
#include &lt;TimerOne.h&gt;<br />
#define buzz 5<br />
SoftwareSerial rfid(6, 7);<br />
bool timerIsrFlag = false;<br />
unsigned int secCount1 = 11;<br />
unsigned int secCount2 = 11;<br />
unsigned int secCount3 = 11;<br />
//static boolean selectmod1 = false; //인터럽트</p>
<p>char receved; // serial 통신 수신 값</p>
<p>int Relaypin1 = 8;<br />
int Relaypin2 = 9;<br />
int Relaypin3 = 10;</p>
<p>int buzzflag = 0; // 부저<br />
int Checkflag = 0; // RFID</p>
<p>void setup()<br />
{<br />
// put your setup code here, to run once:<br />
Serial.begin(9600); //DEBUG<br />
rfid.begin(9600);<br />
SPI.begin(); // SPI 시작</p>
<p>pinMode(Relaypin1, OUTPUT); // 릴레이를 출력으로 설정<br />
pinMode(Relaypin2, OUTPUT);<br />
pinMode(Relaypin3, OUTPUT);<br />
Timer1.initialize(1000000);<br />
Timer1.attachInterrupt(timerIsr);</p>
<p>digitalWrite(Relaypin1, HIGH);<br />
digitalWrite(Relaypin2, HIGH);<br />
digitalWrite(Relaypin3, HIGH);</p>
<p>Serial.println(&#8220;연진아 준비해라&#8221;);<br />
}</p>
<p>void loop() {<br />
if (rfid.available())<br />
{<br />
if (Checkflag == 0)<br />
{<br />
receved = rfid.read();<br />
if (receved == &#8216;x&#8217;)<br />
{<br />
Serial.println(receved);<br />
Serial.println(&#8220;x 재송신 후 다음 동작 대기&#8221;);<br />
rfid.write(&#8216;x&#8217;);<br />
Checkflag = 1;<br />
}<br />
}<br />
if (Checkflag == 1)<br />
{<br />
receved = rfid.read();<br />
if (receved == &#8216;a&#8217;)<br />
{<br />
secCount1 = 0;<br />
Serial.println(receved);<br />
Serial.println(&#8220;물펌프a 동작&#8221;);<br />
digitalWrite(Relaypin1, LOW); // 1채널 릴레이 ON<br />
}<br />
else if (receved == &#8216;b&#8217;)<br />
{<br />
secCount2 = 0;<br />
Serial.println(receved);<br />
Serial.println(&#8220;물펌프b 동작&#8221;);<br />
digitalWrite(Relaypin2, LOW); // 2채널 릴레이 ON<br />
}<br />
else if (receved == &#8216;c&#8217;)<br />
{<br />
secCount3 = 0;<br />
Serial.println(receved);<br />
Serial.println(&#8220;물펌프c 동작&#8221;);<br />
digitalWrite(Relaypin3, LOW); // 3채널 릴레이 ON<br />
}<br />
else if (receved == &#8216;d&#8217;)<br />
{<br />
Serial.println(receved);<br />
Checkflag = 0;<br />
}<br />
}<br />
}<br />
if (buzzflag == 1)<br />
{<br />
tone(buzz, 262, 500); // 도<br />
delay(400);<br />
tone(buzz, 330, 500); // 미<br />
delay(400);<br />
tone(buzz, 392, 500); // 솔<br />
delay(400);<br />
tone(buzz, 523, 500); // 높은 도<br />
delay(400);<br />
rfid.write(&#8216;o&#8217;);<br />
delay(500);<br />
Checkflag = 0;<br />
Serial.println(Checkflag);<br />
buzzflag = 0;<br />
}<br />
}</p>
<p>void timerIsr()<br />
{<br />
timerIsrFlag = true;<br />
secCount1++;<br />
secCount2++;<br />
secCount3++;<br />
if (secCount1 == 10 )<br />
{<br />
digitalWrite(Relaypin1, HIGH); // 1채널 릴레이<br />
buzzflag = 1;<br />
Serial.println(buzzflag);<br />
}<br />
else if (secCount2 == 10 )<br />
{<br />
digitalWrite(Relaypin2, HIGH); // 2채널 릴레이<br />
buzzflag = 1;<br />
}<br />
else if (secCount3 == 10 )<br />
{<br />
digitalWrite(Relaypin3, HIGH); // 3채널 릴레이<br />
buzzflag = 1;<br />
}<br />
}</p>
</div>
<p>&nbsp;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.ntrexgo.com/archives/40945/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>[68호]투명 폐페트병 분리배출 로봇</title>
		<link>http://www.ntrexgo.com/archives/40957</link>
		<comments>http://www.ntrexgo.com/archives/40957#comments</comments>
		<pubDate>Mon, 25 Oct 2021 00:00:32 +0000</pubDate>
		<dc:creator>디바이스마트 매거진</dc:creator>
				<category><![CDATA[디바이스마트 매거진]]></category>
		<category><![CDATA[특집]]></category>
		<category><![CDATA[ict]]></category>
		<category><![CDATA[ict공모전]]></category>
		<category><![CDATA[공모전]]></category>
		<category><![CDATA[디바이스마트]]></category>
		<category><![CDATA[매거진]]></category>
		<category><![CDATA[수상작]]></category>
		<category><![CDATA[융합]]></category>
		<category><![CDATA[프로젝트]]></category>

		<guid isPermaLink="false">http://www.ntrexgo.com/?p=40957</guid>
		<description><![CDATA[디바이스마트매거진 68호 &#124; 뚜껑과 라벨이 없는 무색의 플라스틱만을 모아서 재활용 효율 상승에 큰 도움을 주는 로봇을 제작하였다.]]></description>
				<content:encoded><![CDATA[<p><strong style="font-size: medium"><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-2.png" rel="lightbox[40957]"><img class="alignnone size-large wp-image-41118" alt="68 ict_ 투명페트분리배출 (2)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-2-620x191.png" width="620" height="191" /></a></strong> <span style="font-size: medium"><strong><br />
</strong></span></p>
<p><strong>2021 ICT 융합 프로젝트 공모전 우수상</strong></p>
<p><span style="font-size: x-large"><strong>투명 폐페트병 분리배출 로봇</strong></span></p>
<p style="text-align: right">글 | 숭실대학교 오세찬, 강전완, 윤형섭, 임소현</p>
<p>&nbsp;</p>
<p><span style="color: #ff6600"><strong>1. 심사평</strong></span><br />
칩센 작품을 개발 과정과 결과에도 나와있듯이 개발자들의 정형화된 시연 환경 내에서는 만족할만한 결과를 도출해 낼 수 있지만, 실제 개발 당사자가 아닌 이들이 사용을 한다면 수많은 문제점이 발생할 수 있을 것으로 보입니다. 보고서에 포함된 후속 연구를 통해 작품의 개선을 할 수 있기를 바랍니다.<br />
펌테크 자원재활용 이슈와 기술이 결합된 환경친화적인 작품이라고 생각합니다. 사전조사 및 아이디어가 반영된 제품 기획의 꼼꼼함이 돋보이며 영상처리 기술 구현 등을 효율적으로 접목하여 군더더기 없이 꼭 필요한 기능 위주로 목적에 맞는 최적의 시스템을 기획의도에 맞게 안정적으로 구현하였다고 생각합니다. 전체적으로 기술 구현도, 완성도 등에서 상당히 뛰어나고 훌륭한 작품으로 생각됩니다.<br />
위드로봇 처리 속도가 아쉬습니다. 나머지는 훌륭한 작품입니다.<br />
뉴티씨 투명 페트병만을 수거할 수 있도록하여, 투명하지 않은 페트병은 투명하게 만들어 투입하도록 하는 시스템인데, 매우 잘 제작되었습니다. 다만, 플라스틱이 아닌 금속캔 등을 투입하게 되면, 수거되지 않도록 안내하는 것도 추가하면 좋겠습니다. 검출 및 판별 속도는 개선해야 하는 점으로 보입니다. 또한, 수거되지 않는 것은 다시 가져갈 수 있도록 안내와 함께 기구적으로 문이 열리도록 하면 더 좋을 것 같습니다.<br />
엔티렉스 부설연구소 투명 플라스틱 병 분리 배출로봇 개발은 온전한 플라스틱이 아니면 힘든 것 같습니다. 다만 카메라를 이용하여 페트병을 인식하여 분리 배출하는 기능에 대해서는 많은 생각을 하여 개발 한 것 같습니다. 패트병이 아닌 다른 물체가 왔을 때 일반쓰레기로 처리하는 방식을 적용했으면 합니다.</p>
<p><span style="color: #ff6600"><strong>2. 작품 개요 </strong></span><br />
<span style="color: #3366ff"><strong>2.1. 배경 및 목적</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-3.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41119" alt="68 ict_ 투명페트분리배출 (3)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-3.png" width="580" height="406" /></a></p>
<p>환경부에서는 2020년 12월 25일부터 투명 페트병만 분리수거 해 배출하는 정책을 펴고 있다. 하지만 기사를 통해 전용 봉투는 있지만, 그 안에 라벨과 뚜껑이 제거되지 않은 채로 페트병이 버려져 있는 사진이 공개되면서 아직 제대로 된 분리수거가 이루어지지 않음을 알 수 있다. 이러한 문제를 해결하고자 뚜껑과 라벨이 없는 무색의 플라스틱만을 모아서 재활용 효율 상승에 큰 도움을 주는 로봇을 제작하였다.</p>
<p><span style="color: #3366ff"><strong>2.2. 차별점 및 기대효과</strong></span><br />
재활용 문제를 해결하기 위한 시스템은 여러 가지가 있다. 촉각을 이용해 자동으로 분리수거를 하는 ‘로사이클’, 물건을 넣으면 인공지능이 재활용 가능 여부를 판단해 버려주는 자판기 형태의 ‘네프론’, 어플을 통해 직접 사진을 찍으면 그 물건의 분리수거 방법을 안내하는 ‘스마트사이클’ 등이 바로 그것이다.<br />
작품은 시중에 있는 다른 제품들과 크게 3가지 사항에서 차별성을 보인다. 첫 번째 차별점은 실용적인 면과 교육적인 면이 공존한다는 것이다. 투입구에 물건을 넣으면 로봇이 재활용 가능 여부를 판단하고, 재활용할 수 없다면 문제점과 해결방안을 디스플레이 화면과 음성안내 서비스를 통해 사용자에게 알려준다. 이를 통해 사람들은 본인의 재활용 인식 수준을 판단할 수 있고, 모르고 있었던 사항들을 알게 됨으로써 잘못된 행동을 개선할 수 있다. 두 번째는 로봇이 탈부착할 수 있다는 점이다. 이로 인해 공간의 큰 제약 없이 원하는 크기의 쓰레기통과 함께 사용할 수 있다. 이에 따라 기계를 열어 안에 있는 쓰레기들을 일일이 꺼내는 기존의 다른 제품들과 다르게, 봉투만 교체해서 사용하면 되므로 매우 편리하다. 세 번째는 제작 비용이 상대적으로 적다는 것이다. 값비싼 장치들과 센서들을 사용하지 않고도 필요한 기능들을 무리 없이 잘 구현해낼 수 있다.<br />
투명 폐페트병 분리배출 로봇을 사용함으로써 다음과 같은 기대효과가 예상된다. 우선, 환경부가 마련한 투명 페트병 분리수거 정책의 실행률 증가와 정착에 큰 도움이 될 것이다. 투명 페트병 분리배출의 증가로 불필요한 플라스틱의 폐기가 방지되고, 재활용률이 증가하여 경제적, 환경적으로 큰 공익이 발생할 것이다. 또한, 로봇이 디스플레이와 음성으로 올바른 플라스틱 재활용 방법에 대하여 즉각적으로 홍보함으로써 사람들의 투명 플라스틱 분리수거 및 재활용에 대한 인식이 크게 발전될 것이다.</p>
<p><span style="color: #ff6600"><strong>3. 작품 설명</strong></span><br />
<span style="color: #3366ff"><strong>3.1. 작품 구성도</strong></span></p>
<p><span style="color: #3366ff"><strong><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-4.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41120" alt="68 ict_ 투명페트분리배출 (4)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-4.png" width="620" height="353" /></a></strong></span><br />
3개의 디바이스는 ‘감각기관’, ‘동작 기관’, ‘뇌’로 역할이 분담되어 있다. 각 디바이스는 MQTT 통신을 통해 상호작용하며 역할에 맞는 기능을 수행한다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-5.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41121" alt="68 ict_ 투명페트분리배출 (5)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-5.png" width="620" height="457" /></a><br />
<strong>(1) 감각기관(ESP8266)</strong><br />
센서(무게 센서, 초음파센서)가 연결되어 있다. State에 따라 필요한 센서값을 측정해 동작 기관과 라즈베리파이에 전달해준다.</p>
<p><strong>(2) 동작기관(ESP8266)</strong><br />
동작 기관에는 서보모터가 연결되어 있다. 라즈베리파이에서 검출된 물체 명령에 따라 분리수거와 물체 반환을 하기 위한 모터작동을 수행한다.</p>
<p><strong>(3) 뇌(라즈베리파이)</strong><br />
뇌에는 카메라, 모니터, 스피커가 연결되어 있다. 라즈베리파이에서 구성한 웹서버가 카메라로 찍은 사진을 분석하고 과정을 모니터(웹 클라이언트)와 스피커로 출력해준다.</p>
<p><strong><span style="color: #3366ff">3.2. 주요 동작 및 특징</span></strong><br />
<span style="color: #33cccc"><strong>3.2.1. 로봇 구동과 물체 진입 확인</strong></span><br />
감각기관에 해당하는 ESP8266에 설계되어있다. 물체 진입 확인은 5가지 state로 구성된다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-6.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41122" alt="68 ict_ 투명페트분리배출 (6)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-6.png" width="600" height="264" /></a></p>
<p><strong>init state(00)</strong><br />
처음 감각기관에 전원이 공급되면 init 상태가 된다. 이 상태에서는 사용하는 센서(무게 센서, 초음파센서)들의 pin을 초기화하고, 와이파이와 MQTT client(sensor)를 연결한다. wait 상태로의 이동은 라즈베리파이의 명령으로 이뤄진다.<br />
라즈베리파이의 웹서버는 서버가 실행되기 전 디바이스 간의 통신상태를 점검한다. 라즈베리파이가 보낸 ’reset’를 확인한 감각기관은 ‘connect’를 답장한다. 연결상태가 확인되면, 라즈베리파이는 ‘wait’를 보내고 서버를 실행한다. 메시지를 받은 감각기관은 ‘wait’ 상태로 이동한다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>server mqtt connect / 라즈베리파이<br />
mqtt_client.on(&#8216;connect&#8217;, function () {<br />
mqtt_client.publish(&#8216;sensor&#8217;, &#8220;reset&#8221;);<br />
mqtt_client.publish(&#8216;motor&#8217;, &#8220;reset&#8221;);<br />
mqtt_client.subscribe(&#8216;raspi&#8217;, function (err) {<br />
if (!err) {<br />
console.log(&#8216;subscribe : raspi&#8217;);<br />
}<br />
})<br />
})<br />
</div>
<p>웹서버가 MQTT client로 연결되면 raspi를 구독하고, 감각기관과 동작기관에 reset이라는 메시지를 전송한다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>server running / 라즈베리파이<br />
var health = {<br />
&#8216;sensor&#8217;: 0,<br />
&#8216;motor&#8217;: 0<br />
};<br />
var server_start = setInterval(function () {<br />
if (health.sensor == 1 &amp;&amp; health.motor == 1) {<br />
var server = http.createServer(app).listen(8080, function () {<br />
console.log(&#8216;server on&#8217;);<br />
});<br />
io = socketio(server);<br />
io.sockets.on(&#8216;connection&#8217;, function (socket) {<br />
socket.on(&#8216;sound&#8217;, function (data) {<br />
console.log(data);<br />
sound(data + &#8216;.mp3&#8242;);<br />
})<br />
});<br />
clearInterval(server_start);<br />
} else{<br />
(health.sensor!=1)?mqtt_client.publish(&#8216;sensor&#8217;,&#8221;reset&#8221;)<br />
:mqtt_client.publish(&#8216;motor&#8217;, &#8220;reset&#8221;);<br />
console.log(&#8220;not connected&#8221;);<br />
}<br />
}, 1000)<br />
</div>
<p>health 변수에 key값인 sensor, motor는 서버 실행 전 감각기관, 동작기관의 통신상태 정보를 담고 있다. 1000(1초)마다 실행되는 함수를 만들어 연결상태를 점검하고 잘 연결되었다면, 웹서버와 동적인 사용자 인터페이스에 필요한 소켓 서버를 실행시키고, 감각기관에게 ‘wait’ 메시지를 보내준다. 연결상태가 올바르지 않다면, 해당 디바이스에 상태를 확인하는 reset 메시지를 재전송한다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>connect message receive / 라즈베리파이<br />
mqtt_client.on(&#8216;message&#8217;, function (topic, message) {<br />
if (message == &#8220;input&#8221;) {<br />
// 물체 진입코드<br />
} else if (String(message).split(&#8216;-&#8217;)[0] == &#8216;connect&#8217;) {<br />
console.log(String(message));<br />
health[String(message).split('-')[1]] = 1;<br />
} else {<br />
// 물체 무게 받는 코드<br />
}<br />
})<br />
</div>
<p>‘-‘를 기준으로 split 하여 감각기관, 동작기관 중 연결상태라 올바른 디바이스에 health 값을 1로 갱신하는 코드이다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>connect msg / 감각기관<br />
void callback(char* topic, byte* payload, unsigned int length) {<br />
String msg = &#8220;&#8221;;<br />
for (int i = 0; i &lt; length; i++) {<br />
msg +=(char)payload[i];<br />
}</p>
<p>if(msg == &#8220;reset&#8221;){<br />
client.publish(&#8220;raspi&#8221;,&#8221;connect-sensor&#8221;);<br />
}<br />
else if(msg == &#8220;wait&#8221;){<br />
state = 1;<br />
}<br />
}<br />
</div>
‘reset’ 메시지를 받으면 연결상태인 connect-sensor를 보내주고, ‘wait’ 메시지를 받으면 ‘wait’ 상태로 이동한다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-7.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41123" alt="68 ict_ 투명페트분리배출 (7)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-7.png" width="578" height="537" /></a></p>
<p><strong>wait state(01)</strong><br />
문이 열리길 기다리는 상태. 물체를 집어넣는 작품 상단에 있는 초음파센서가 문과의 거리를 측정한다. 센서값을 분석(문 열림)하여 문이 열렸음이 확인되면 ‘open’ 상태로 이동한다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>wait -&gt; open state / 감각기관<br />
int get_distance(){<br />
int duration, distance;<br />
digitalWrite(trig, LOW);<br />
delayMicroseconds(10);<br />
digitalWrite(trig, HIGH);<br />
delayMicroseconds(10);<br />
digitalWrite(trig, LOW);<br />
duration = pulseIn(echo, HIGH);<br />
distance = duration * 170 / 1000;<br />
return distance;<br />
}<br />
// loop내 코드<br />
int distance = get_distance();<br />
if(state == 1 &amp;&amp;(200 &lt; distance || 180 &gt; distance)){<br />
state++; // open state로 이동<br />
}<br />
</div>
<p>거리를 측정하는 distance()를 전역함수로 작성하여 loop 내에서 필요에 따라 호출하도록 하였다. 문이 열릴 때 반사되는 초음파센서값이 열리기 전의 값(190)보다 값이 작다는 것을 이용하여 문이 열렸음을 확인한다. 추가로 200 이상의 값도 열렸다고 판단하는 이유는 초음파가 반사되어 200 이상의 숫자도 나올 수 있기 때문이다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-8.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41124" alt="68 ict_ 투명페트분리배출 (8)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-8.png" width="582" height="170" /></a><br />
<strong></strong></p>
<p><strong>open state(10)</strong><br />
문이 열린 상태. 초음파센서는 문과의 거리를, 무게 센서는 물체의 무게를 측정한다. 두 센서값을 분석(문 닫힘, 물체무게감지)하여 정상적으로 물체가 들어왔으면 ‘close’ 상태로 이동한다.</p>
<p><strong>close state(11)</strong><br />
물체가 들어온 상태. 라즈베리파이에게 물체가 들어왔음(input)과 물체의 무게(weight)값을 전송한다. 메시지를 수신한 라즈베리파이는 물체 분석을 시작하고 ‘analysis’ 답장을 보낸다. 답장을 받은 감각기관은 analysis 상태로 이동한다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>open -&gt; close state / 감각기관<br />
else if(state == 2 &amp;&amp; (190 &gt;= distance &amp;&amp; 185 &lt;= distance) &amp;&amp; (scale.read()/1000 &gt;= 330)){<br />
state++; // close state로 이동<br />
client.publish(&#8220;raspi&#8221;,&#8221;input&#8221;);<br />
delay(1000);<br />
String packet = String(scale.read()); // weight 전송<br />
packet.toCharArray(weight,50);<br />
client.publish(&#8220;raspi&#8221;,weight);<br />
}<br />
</div>
<p>초음파센서로 측정한 값이 185 이상 190 이하이고 무게 센서로 측정한 값을 1000으로 나눈 값이 330 이상이면 물체가 정상적으로 들어왔다고 판단하여 ‘close’ 상태로 이동한다. close 상태로 이동 후 라즈베리파이에게 잘 들어왔음을 알리는 ‘input’과 물체의 무게 값인 ‘weight’ 값을 전송한다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>분석 시작코드 / 라즈베리파이<br />
mqtt_client.on(&#8216;message&#8217;, function (topic, message) {<br />
if (message == &#8220;input&#8221;) {<br />
mqtt_client.publish(&#8216;sensor&#8217;, &#8220;analysis&#8221;);<br />
io.sockets.emit(&#8216;counter&#8217;, 3);<br />
sound(&#8220;camera.mp3&#8243;);<br />
} else if (String(message).split(&#8216;-&#8217;)[0] == &#8216;connect&#8217;) {<br />
// 초기 설정 관련<br />
} else {<br />
weight = parseInt(message);<br />
}<br />
})</p>
</div>
input 메시지가 도착하면, 감각기관은 analysis 상태로 만들기 위해 ‘analysis’ 메시지를 전송하고, 물체 분석을 시작한다.</p>
<p><strong>analysis 상태(100)</strong><br />
물체가 분석 중인 상태. 분석이 정상적으로 끝나고, 모터 동작에 대한 메시지가 수신될 때까지 대기한다.<br />
<strong></strong></p>
<p><span style="color: #33cccc"><strong>3.2.2. 투명 폐페트병 검출 기능 </strong></span><br />
뇌에 해당하는 라즈베리파이에 투명 폐페트병을 검출하는 모델이 3단계로 설계되어있다. 아래 표는 대략적인 흐름과 각 검출 단계에서 사용되는 분석 도구들을 보여준다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-9.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41125" alt="68 ict_ 투명페트분리배출 (9)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-9.png" width="583" height="609" /></a></p>
<p><strong>카메라 촬영</strong><br />
node.js의 pi-camera 모듈을 사용하여 라즈베리용 카메라를 조작한다. 사진 촬영 후 정상적으로 사진이 저장되면, 성분분석 단계로 넘어간다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<strong>Box Content</strong><br />
</div>
<p>웹 클라이언트로부터 /camera 요청을 받으면, snap 함수를 사용해 라즈베리파이용 카메라를 동작시킨다. 사진이 제대로 찍혔으면, 첫 분석방법인 성분 분석 함수를 호출한다.</p>
<p><strong>성분분석</strong><br />
google-cloud에서 제공해주는 vision api를 사용한다. 들어온 물체의 크기, object 무게 등을 측정하여 플라스틱인지 검출하는 단계이다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-10.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41126" alt="68 ict_ 투명페트분리배출 (10)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-10.png" width="292" height="506" /></a></p>
<p><strong>ⓐ 크기 검사</strong><br />
이미지 분석 데이터를 분석하여 물체의 유무를 측정한다. 물체의 좌표에 해당하는 픽셀들을 추출하여 만약 추출되지 않았으면 물체가 인식되지 않았다고 판단하고 object_test 변수를 false로 변경한다.<br />
<strong>ⓑ 오브젝트 검사</strong><br />
이미지 분석 데이터를 분석하여 해당하는 물체가 플라스틱인지 판단한다. [bottle, drink, plastic, glass]의 키워드가 하나도 나오지 않으면 페트병이 아니라고 인식해 object_test 변수를 false로 변경한다.<br />
<strong>ⓒ 무게 검사</strong><br />
esp8266(감각기관)에서 물체 진입 확인과 함께 전달된 물체의 무게를 통해 플라스틱 bottle의 무게인지 검사한다. 이전검사에서 유리와 플라스틱을 구분하지 못했는데, 이 단계에서 분류된다. 추가로 이물질 특히 내용물이 담겨있는 경우도 이 검사에서 걸러진다.<br />
<strong>ⓓ label_test 값 확인</strong><br />
ⓐ~ⓒ단계에서 기록된 object_test 값을 확인하여 false이면 물체를 반환하기 위해 모터에게 메시지(up)를 보내고, true이면 다음 단계인 글자 분석 단계로 이동한다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>성분 분석 코드 / 라즈베리파이(서버)<br />
var weight = 0;<br />
var area;<br />
async function object_search() {<br />
var object_test = false;<br />
mqtt_client.publish(&#8216;sensor&#8217;, &#8220;get_weight&#8221;);<br />
const [result2] = await client.objectLocalization(&#8216;test.jpg&#8217;);<br />
try {<br />
result2.localizedObjectAnnotations[0].boundingPoly.normalizedVertices;<br />
const object =<br />
result2.localizedObjectAnnotations[0].boundingPoly.normalizedVertices;<br />
area = {<br />
xs: parseInt(object[0].x * 640),<br />
xe: parseInt(object[1].x * 640),<br />
ys: parseInt(object[1].y * 480),<br />
ye: parseInt(object[3].y * 480)<br />
};<br />
io.sockets.emit(&#8216;area&#8217;, area);<br />
} catch (e) {<br />
console.log(&#8220;물체 감지X&#8221;);<br />
}<br />
const [result] = await client.labelDetection(&#8216;test.jpg&#8217;);<br />
const objects = result.labelAnnotations;</p>
<p>console.log(&#8216;성분분석중&#8217;);<br />
objects.forEach(function (objects, index) {<br />
io.sockets.emit(&#8216;ingredient_label&#8217;, objects.description);<br />
if (objects.description.indexOf(&#8216;bottle&#8217;) != -1 ||<br />
objects.description.indexOf(&#8216;Bottle&#8217;) != -1 ||<br />
objects.description.indexOf(&#8216;Drink&#8217;) != -1 ||<br />
objects.description.indexOf(&#8216;drink&#8217;) != -1 ||<br />
objects.description.indexOf(&#8216;Plastic&#8217;) != -1 ||<br />
objects.description.indexOf(&#8216;Glass&#8217;) != -1) {<br />
object_test = true;<br />
}<br />
});<br />
console.log(&#8216;성분분석완료&#8217;);<br />
if (object_test == true &amp;&amp; weight &lt; 420000) {<br />
io.sockets.emit(&#8216;complete&#8217;, &#8216;성분분석완료-성공-1&#8242;);<br />
setTimeout(function () {<br />
text_search(result);<br />
}, 3000)<br />
} else {<br />
io.sockets.emit(&#8216;complete&#8217;, &#8216;성분분석완료-실패-1&#8242;);<br />
mqtt_client.publish(&#8216;motor&#8217;, &#8220;up&#8221;);<br />
}<br />
}</p>
</div>
성분 분석 결과를 나타내는 object_test 변수를 false로 초기화하고 분석 결과에 따라 값을 할당한다. vision api에 objectLocalization 함수를 통해 물체의 위치 픽셀을 리턴 받는다. 리턴 받은 값이 있다면, 그 물체의 위치를 저장하는 area 변수에 저장하고, 없다면 catch 문을 사용해 물체가 없음이 출력된다. 다음으로 labelDetection 함수를 통해 object의 성분을 파악한다. [bottle, drink, plastic, glass]라는 키워드가 있다면, object_test 값을 true로 변경한다. 성분분석이 완료되고, glass와 plastic을 구분하기 위해 무게 값을 측정하고 최종적으로 모터에게 결과 메시지를 전송한다.</p>
<p><strong>글자 분석</strong><br />
google-cloud vision API를 사용한다. 폐페트병에 프린팅이 되어있거나 글자가 있는지 판단하는 단계이다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-11.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41127" alt="68 ict_ 투명페트분리배출 (11)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-11.png" width="290" height="362" /></a></p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>글자 분석 코드 / 라즈베리파이(서버)<br />
async function text_search() {<br />
console.log(&#8220;글자분석중&#8221;);<br />
var text_test = true;<br />
const [result] = await client.textDetection(&#8216;test.jpg&#8217;);<br />
const detections = result.textAnnotations;<br />
detections.forEach(function (text, index) {<br />
io.sockets.emit(&#8216;ingredient_text&#8217;, text.description);<br />
if (text.description) {<br />
text_test = false;<br />
}<br />
console.log(text.description);<br />
});<br />
console.log(&#8220;글자분석완료&#8221;);<br />
if (text_test == true) {<br />
io.sockets.emit(&#8216;complete&#8217;, &#8216;글자분석완료-성공-2&#8242;);<br />
setTimeout(function () {<br />
color_search();<br />
}, 3000)<br />
} else {<br />
io.sockets.emit(&#8216;complete&#8217;, &#8216;글자분석완료-실패-2&#8242;);<br />
mqtt_client.publish(&#8216;motor&#8217;, &#8220;up&#8221;);<br />
}<br />
}<br />
</div>
<p><strong>ⓐ 글자 검사</strong><br />
이미지 데이터 중 text 배열을 선택해 요소가 있는지 확인한다. 만약 요소가 하나라도 존재하면 label이 붙어있거나 프린팅이 되어있는 플라스틱으로 판단하고 text_test 변수를 false로 변경한다.<br />
<strong>ⓑ text_test 값 확인</strong><br />
ⓐ단계에서 기록된 text_test 변수의 값을 확인하여 fasle이면 물체를 반환하기 위해 모터에게 메시지(up)를 보내고, true이면 다음 단계인 색깔 분석 단계로 이동한다.<br />
글자 분석 결과를 나타내는 text_test 변수를 false로 초기화하고 분석 결과에 따라 true 값을 할당한다. vision api의 textDetection함수를 이용해 이미지에서의 식별된 글자들을 리턴받고, 이를 분석한다. 분석결과를 text_test 변수에 기록하고, 이를 토대로 모터를 작동시킨다.</p>
<p><strong>색깔 분석</strong><br />
이미지를 RGB matrix로 만들어주는 image-to-rgba-matrix 모듈을 사용해 픽셀 단위로 RGB 값을 분석하여 폐페트병의 이물질 여부를 판단하는 단계이다.<br />
<strong>ⓐ 영역설정</strong><br />
성분분석에서 얻은 물체 픽셀 데이터를 이용해 분석 영역을 설정한다. 영역을 설정함으로써 투명 폐페트병과 배경색만 검출된다.<br />
<strong>ⓑ 표준편차</strong><br />
각 픽셀의 R, G, B값을 추출해 표준편차를 계산해 1차 분류를 진행한다. 표준편차가 15 초과면 유채색(빨강, 초록, 파랑), 15 이하면 무채색(검은, 흰)으로 분류한다.<br />
<strong></strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-12.png" rel="lightbox[40957]"><img class="alignnone size-large wp-image-41128" alt="68 ict_ 투명페트분리배출 (12)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-12-472x620.png" width="472" height="620" /></a></p>
<p><strong>ⓒ RGB 연산</strong><br />
1차 분류를 통해 나눠진 데이터를 토대로 각각 RGB 연산을 수행한다. 유채색의 경우 R, G, B값 중 큰 값을 찾아 Red, Green, Blue로 분류하고 무채색의 경우 R, G, B의 평균을 계산하여 40 이하인 것을 검은색. 200 이상인 것을 흰색으로 분류한다. 흰색은 연산하는 과정에서 영역(뚜껑, 몸통)별로 가중치를 부여해 데이터가 저장되는데, 이러한 이유는 백색 조명이 반사되어 나타나는 흰색이 몸통에 주로 위치하기 때문이다.<br />
<strong>ⓓ 분류 연산 </strong><br />
2차 분류된 데이터를 토대로 각 색깔의 개수를 측정한다. Red, Green, Blue, Black의 경우 10픽셀 이상 있으면 이물질이 있다고 판단한다. White의 경우 보정된 값이 5000 이상이면 흰색 이물질이라고 판단한다. 5000은 여러 번의 테스트를 거쳐 얻은 값이다. 이물질 판단 여부를 통해 color_test 값을 결정한다.<br />
<strong>ⓔ color_test 값 확인</strong><br />
ⓐ~ⓓ단계에서 기록된 text_test 변수의 값을 확인하여 false이면 물체를 반환하기 위해 모터에게 메시지를 보낸다. true이면 최종적으로 투명한 폐페트병이라고 판단하여 물체를 분리수거 하기 위해 모터에게 메시지(down)을 전송한다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>색깔 분석코드 / 라즈베리파이(서버)<br />
function color_search() {<br />
console.log(&#8220;색깔분석중&#8221;);<br />
// 변수 초기화<br />
var color_test = true;<br />
var pal = {<br />
&#8216;white&#8217;: 0,<br />
&#8216;black&#8217;: 0,<br />
&#8216;red&#8217;: 0,<br />
&#8216;green&#8217;: 0,<br />
&#8216;blue&#8217;: 0<br />
}<br />
pal['white']['state'] = 0;</p>
<p>imageToRgbaMatrix(&#8216;test.jpg&#8217;).then(function (color) {<br />
color.forEach(function (color, row) {<br />
color.forEach(function (color, col) {<br />
// 특정 영역 검색<br />
if (col &gt;= area.xs &amp;&amp; col &lt;= area.xe<br />
&amp;&amp; row &gt;= 115 &amp;&amp; row &lt;= area.ye) {<br />
// 표준편차 구하기<br />
var average =<br />
(parseInt(color[0])+parseInt(color[1])+parseInt(color[2])) / 3<br />
var sum = 0;<br />
for (j = 0; j &lt; 3; j++) {<br />
sum += Math.pow(color[j] &#8211; average, 2);<br />
}<br />
var std = parseInt(Math.sqrt(sum / 3))</p>
<p>// 표준편차를 이용한 색구분<br />
if (std &lt;= 15) {<br />
if (average &gt; 200) {<br />
if ((col &lt; area.xs + 50) || (col &gt; area.xe + 50)) {<br />
pal['white'] += 300;<br />
} else {<br />
pal['white']++;<br />
}<br />
} else if (average &lt; 40) {<br />
pal['black']++;<br />
}<br />
} else {<br />
if (color[0] &gt; color[1] &amp;&amp; color[0] &gt; color[2]) {<br />
pal['red']++;<br />
} else if (color[1] &gt; color[2]) {<br />
pal['green']++;<br />
} else {<br />
pal['blue']++;<br />
}<br />
}<br />
}<br />
});<br />
});<br />
Object.keys(pal).forEach(function (key) {<br />
console.log(key + &#8216;:&#8217; + pal[key]);<br />
if (key == &#8216;white&#8217; ? pal[key] &gt; 5000 : pal[key] &gt;= 10) {<br />
color_test = false;<br />
console.log(key + &#8220;검출&#8221;)<br />
io.sockets.emit(&#8216;ingredient_color&#8217;, key);<br />
}</p>
<p>});<br />
console.log(&#8220;색깔분석완료&#8221;);<br />
if (color_test == true) {<br />
setTimeout(function () {<br />
io.sockets.emit(&#8216;complete&#8217;, &#8216;색깔분석완료-성공-3&#8242;);<br />
mqtt_client.publish(&#8216;motor&#8217;, &#8220;down&#8221;);<br />
}, 2000)<br />
} else {<br />
io.sockets.emit(&#8216;complete&#8217;, &#8216;색깔분석실패-실패-3&#8242;);<br />
mqtt_client.publish(&#8216;motor&#8217;, &#8220;up&#8221;);<br />
}<br />
});<br />
}</p>
</div>
<p>색깔분석 결과를 나타내는 color_test 변수를 false로 초기화하고 분석 결과에 따라 true 값을 할당한다. imageToRgbaMatrix로 이미지를 RGBA 성분을 가지고 있는 2차원 배열로 리턴 받는다. 이를 성분분석에서 연산한 area를 토대로 색깔을 분류하고, pal 변수에 key로 지정된 색깔에 count 한다. 분류 작업을 마친 후 foreach문을 통해 색깔의 count 값을 비교하여 분석결과를 color_test 변수에 저장하고 이를 토대로 모터를 작동시킨다.</p>
<p><span style="color: #33cccc"><strong>3.2.3. 분리수거</strong></span><br />
동작 기관 ESP8266에서는 서보모터를 제어하여 분리수거와 반환 기능을 수행한다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-13.png" rel="lightbox[40957]"><img class="alignnone size-large wp-image-41129" alt="68 ict_ 투명페트분리배출 (13)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-13-581x620.png" width="581" height="620" /></a></p>
<p><span style="color: #cc33b6"><strong>명령 수신</strong></span><br />
라즈베리파이에서 투명 폐페트병 검출 기능이 수행된 후 분리수거가 가능 여부에 따라 UP(반환), Down(분리수거) 메시지를 동작기관으로 전송한다.</p>
<p><span style="color: #cc33b6"><strong>모터 동작</strong></span><br />
메시지를 받은 동작 기관은 메시지에 따라 서보모터를 제어해 물체 반환(UP)과 분리수거 (Down)을 수행한다. 그리고 감각기관으로 현재 모터의 상태인 motor_up과 motor_down을 전달한다. 감각기관의 도움을 받는 이유는 서보모터 자체 함수 중 각도를 리턴 받는 함수가 없어, 기능이 제대로 수행되었는지 알 수 없기 때문이다.</p>
<p><span style="color: #cc33b6"><strong>감각기관 상태 이동</strong></span><br />
모터 동작에 대한 메시지를 전달받은 감각기관은 메시지에 따라 analysis 상태에서 motor_up, motor_down 상태로 이동한다.</p>
<p><span style="color: #cc33b6"><strong>분리수거 및 반환 완료 검사</strong></span><br />
서보모터를 통해 틀이 움직이면 감각기관에 무게 센서값이 기준치에서 크게 변화한다. 즉 motor_up(반환), motor_down(분리수거) 상태에서 특정 무게 값을 정하여 기준치에 충족하면 반환, 분리수거가 완료되었다고 판단한다. 추가로 motor_up(반환)의 경우 물체가 가벼워 문을 뚫고 나오지 못하는 것을 고려하여 초음파센서값도 변수로 지정하였다. 초음파센서값을 통해 물체가 감지되지 않으면(물체 반환이 완료되면) 동작 기관에 reset을 명령한다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>전달받은 메시지에 따른 함수 호출 / 동작기관(모터)<br />
void callback(char* topic, byte* payload, unsigned int length) {<br />
String msg = &#8220;&#8221;;<br />
for (int i = 0; i &lt; length; i++) {<br />
msg +=(char)payload[i];<br />
}<br />
Serial.print(&#8220;message : &#8220;);<br />
Serial.print(msg);<br />
if(msg == &#8220;up&#8221;){<br />
motor_up();<br />
}<br />
else if(msg == &#8220;down&#8221;){<br />
motor_down();<br />
}<br />
else if(msg == &#8220;reset&#8221;){<br />
motor_reset();<br />
client.publish(&#8220;raspi&#8221;,&#8221;connect-motor&#8221;);<br />
}<br />
}<br />
</div>
<p>‘up’ 메시지를 받으면 반환을, ‘down’ 메시지를 받으면 분리수거를 시작한다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>모터 제어 함수들 / 동작기관(모터)<br />
void motor_up(){<br />
servo1.write(180);<br />
servo2.write(0);<br />
client.publish(&#8220;sensor&#8221;,&#8221;motor_up&#8221;);<br />
}<br />
void motor_down(){<br />
servo1.write(0);<br />
servo2.write(180);<br />
client.publish(&#8220;sensor&#8221;,&#8221;motor_down&#8221;);<br />
}</p>
<p>void motor_reset(){<br />
servo1.write(90);<br />
servo2.write(90);<br />
}<br />
</div>
<p>전역변수로 선언된 3개의 모터제어 함수들. 라즈베리파이에서 분리수거, 반환이 시작되면 현재 수행한 함수를 감각기관에게 메시지로 전달한다. 이는 무게 센서를 통한 서보모터 동작 완료를 확인하기 위함이다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>모터 메시지에 따른 상태 변화<br />
감각기관(센서)<br />
void callback(char* topic, byte* payload, unsigned int length) {<br />
else if(msg == &#8220;motor_up&#8221;){<br />
state = 5; // motor_up 상태로 이동<br />
}<br />
else if(msg = &#8220;motor_down&#8221;){<br />
state = 6; // motor_down 상태로 이동<br />
}<br />
}<br />
</div>
<p>모터에서 받은 메시지에 따라 각각 motor_up state와 motor_down state로 상태 이동한다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>모터 동작 완료 확인 / 감각기관(센서)<br />
else if(state ==5 &amp;&amp; (190 &gt;= distance &amp;&amp; 185 &lt;= distance) &amp;&amp; (scale.read()/1000 &lt;188) ){<br />
client.publish(&#8220;motor&#8221;,&#8221;reset&#8221;);<br />
state = 1; // wait 상태로 이동<br />
}<br />
else if(state ==6 &amp;&amp; (scale.read()/1000 &lt;0) ){<br />
client.publish(&#8220;motor&#8221;,&#8221;reset&#8221;);<br />
state = 1; // wait 상태로 이동<br />
}<br />
</div>
motor_up과 motor_down 상태에서는 무게 센서와 초음파센서값을 측정하여 분리수거와 반환이 완료됐는지 확인한다. 정상적으로 처리가 끝났으면 감각기관의 상태를 wait 상태로 이동하고, 모터에게 ‘reset’ 메시지를 보내준다. ‘reset’ 메시지를 받은 모터는 모터를 초기화시킨다.</p>
<p><span style="color: #33cccc"><strong>3.2.4. 사용자 인터페이스</strong></span><br />
<span style="color: #cc33b6"><strong>디스플레이</strong></span></p>
<p><span style="color: #cc33b6"><strong><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-14.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41130" alt="68 ict_ 투명페트분리배출 (14)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-14.png" width="577" height="526" /></a></strong></span><br />
<strong>ⓐ 메인화면</strong><br />
메인화면은 2가지 표정으로 구분된다. 재활용을 성공한 경우나 처음 로봇이 구동된 경우 Happy, 재활용에 실패해 물체가 반환된 경우 Angry 캐릭터가 메인화면에 나타난다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-15.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41131" alt="68 ict_ 투명페트분리배출 (15)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-15.png" width="581" height="229" /></a></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-16.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41132" alt="68 ict_ 투명페트분리배출 (16)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-16.png" width="581" height="229" /></a><br />
메인화면에서 오른쪽 위 끝에 있는 설명 버튼을 누르면, 재활용 방법과 로봇에서 폐페트병을 검출하는 방법을 소개한다.</p>
<p><strong>ⓑ 분석화면</strong><br />
3단계의 분석 진행 과정과 결과를 우측에 실시간으로 렌더링하여 보여준다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-17.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41133" alt="68 ict_ 투명페트분리배출 (17)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-17.png" width="583" height="618" /></a></p>
<p><span style="color: #cc33b6"><strong>음성 출력</strong></span><br />
google TTL 서비스를 통해 음성을 추출하였고, 서버 측에서 음성을 출력하기 위해 play-sound를 사용했다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-18.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41134" alt="68 ict_ 투명페트분리배출 (18)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-18.png" width="300" height="162" /></a></p>
<p>play-sound로 재생하는 음성은 서로 독립적으로 재생되어 소리가 겹치는 일이 발생할 수 있다. 전역변수로 audio를 생성하고, 음성 재생이 필요할 때마다 audio.kill()로 현재 재생되고 있는 소리를 제거하고 play를 통해 재생시켰다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>음성출력 / 라즈베리파이(node.js)<br />
var audio = 0;<br />
function sound(data) {<br />
if (audio != 0) audio.kill();<br />
audio = player.play(&#8216;audio/&#8217; + data);<br />
}<br />
</div>
<p><span style="color: #3366ff"><strong>3.3. 개발 환경</strong></span><br />
· OS : 라즈비안(라즈베리파이), 윈도우10(노트북)<br />
· 개발 언어 : C, javascript(node.js), html, css<br />
· 툴 : brackets, 지니, 아두이노IDE<br />
· 통신 : MQTT, HTTP(Socket.io, GET)</p>
<p><strong>Node.js 주요사용 모듈</strong></p>
<table style="width: 620px" border="1" cellspacing="0" cellpadding="1">
<tbody>
<tr>
<td>express</td>
<td>Node.js를 위한 웹 프레임워크</td>
</tr>
<tr>
<td>socket.io</td>
<td>실시간 웹 애플리케이션을위한 JavaScript 라이브러리</td>
</tr>
<tr>
<td>@google-cloud/vision</td>
<td>google cloude vision api를 사용하기 위한 모듈</td>
</tr>
<tr>
<td>image-to-rgba-matrix</td>
<td>이미지를 rgba matrix로 변경해주는 모듈</td>
</tr>
<tr>
<td>pi-camera</td>
<td>라즈베리파이용 카메라를 제어하기 위한 모듈</td>
</tr>
<tr>
<td>play-sound</td>
<td>음성 재생을 위한 모듈</td>
</tr>
</tbody>
</table>
<p><strong style="color: #ff6600">4. 단계별 제작과정</strong></p>
<p><span style="color: #3366ff"><strong>4.1. 하드웨어 제작과정</strong></span><br />
<span style="color: #cc33b6"><strong>하드웨어 1주차</strong></span><br />
ⓐ 주제 선정 및 기능 아키텍처 작성을 통한 필요 물품 구매</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-20.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41136" alt="68 ict_ 투명페트분리배출 (20)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-20.png" width="576" height="431" /></a><br />
<strong>필요 물품</strong><br />
· 폼보드 : 특별한 장비 없이 가공에 있어 자유롭고 튼튼하다.<br />
· ESP8266 mini : 각 기관의 역할을 나누는 데 필요했다.<br />
· 무게 센서 : 물체의 무게를 측정해 분류하는 데 필요했다.</p>
<p>라즈베리파이, 카메라, 스피커, 모니터, 초음파센서는 기존에 가지고 있던 것을 사용했다.</p>
<p><span style="color: #cc33b6"><strong>하드웨어 2주차 </strong></span><br />
ⓐ 역할을 분담하여 센서, 모터, 카메라를 동작(테스트)해보는 학습을 진행하였다.</p>
<p>ⓑ 제작에 앞서 외형도를 제작했다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-21.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41137" alt="68 ict_ 투명페트분리배출 (21)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-21.png" width="577" height="377" /></a><br />
대략적인 제품 크기와 부품을 설치할 위치를 그렸다.</p>
<p><span style="color: #cc33b6"><strong>하드웨어 3주차</strong></span></p>
<p>ⓐ 외부 틀 제작 : 2주차에서 작성한 외형도를 바탕으로 문과 틀을 만들었다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-1.jpg" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41116" alt="68 ict_ 투명페트분리배출 (1)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-1.jpg" width="579" height="297" /></a></p>
<p>ⓑ 밑판제작 및 부품 테스트</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-22.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41138" alt="68 ict_ 투명페트분리배출 (22)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-22.png" width="580" height="293" /></a></p>
<p>무게 센서와 서보모터를 연결해 물체가 올라갈 밑판을 제작하였고, 모터 동작을 테스트했다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-23.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41139" alt="68 ict_ 투명페트분리배출 (23)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-23.png" width="582" height="303" /></a></p>
<p>초음파센서를 입구 상단에 설치하고, 무게센서와 테스트했다.</p>
<p>ⓒ 내벽 제작</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-24.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41140" alt="68 ict_ 투명페트분리배출 (24)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-24.png" width="579" height="275" /></a><br />
좌측에 동작기관, 우측에 감각기관으로 회로를 연결하였다.<br />
회로 정리 후 제작한 내벽을 붙여 선이 보이지 않게 만들었다.</p>
<p>ⓓ 앞면 제작</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-25.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41141" alt="68 ict_ 투명페트분리배출 (25)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-25.png" width="579" height="318" /></a></p>
<p>로봇의 모니터가 들어갈 앞판을 제작하였다.</p>
<p>ⓔ 윗면 제작</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-26.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41142" alt="68 ict_ 투명페트분리배출 (26)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-26.png" width="583" height="301" /></a></p>
<p>조명, 라즈베리파이 카메라, 스피커 등이 놓일 윗면을 제작하였다.</p>
<p><span style="color: #cc33b6"><strong>하드웨어 4주차</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-27.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41143" alt="68 ict_ 투명페트분리배출 (27)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-27.png" width="579" height="304" /></a></p>
<p>카메라 선이 길지 않아 동작 테스트에 문제가 발생했다. 윗면에 설치하는 것이 아닌, 윗면에 붙이는 것으로 계획을 변경했다.<br />
쓰레기통의 교체가 쉽고 들어있는 상황을 볼 수 있도록 하단은 오픈형으로 제작하였다.</p>
<p><span style="color: #3366ff"><strong>4.2. 소프트웨어 제작과정 </strong></span><br />
<span style="color: #cc33b6"><strong>소프트웨어 1주차</strong></span><br />
하드웨어 제작 1주차 첨부한 기능 구성도를 작성하고, 필요한 기술을 조사했다.</p>
<p><strong>조사내용</strong><br />
· 각 기관 간의 통신은 MQTT 통신을 사용한다.<br />
· 로봇의 얼굴인 디스플레이는 웹사이트 형태로 제작한다.<br />
· 카메라 모듈을 사용해 사진을 찍은 후 구글 API을 사용해서 라벨 및 이물질의 유무 등을 분석한다.<br />
· 분석 결과에 따라, 모터가 작동해 플라스틱을 분리배출할 수 있게 도와준다.</p>
<p><span style="color: #cc33b6"><strong>소프트웨어 2주차</strong></span><br />
ⓐ 필요 기술 학습(물체 검출)</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-28.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41144" alt="68 ict_ 투명페트분리배출 (28)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-28.png" width="579" height="542" /></a></p>
<p>vision API를 사용해 물체의 성분(plastic, glass 등), 텍스트(프린팅, 라벨), RGB 추출(이물질 검사)을 하기 기대했다. 성분 분석과 텍스트 검출에는 문제가 없었지만, 색 추출에서 이질적인 색을 잡는 민감도를 기대할 수 없었다. 다른 방법인 10개의 색 파레트를 추출하는 color-thief 모듈을 사용하여, 뚜껑 등의 이질적인 색 검출에 성공했다.</p>
<p>ⓑ 필요 기술 학습(사용자 인터페이스)</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-29.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41145" alt="68 ict_ 투명페트분리배출 (29)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-29.png" width="579" height="206" /></a></p>
<p>웹 클라이언트 : 로봇의 얼굴에 해당하는 모니터에 HTML, CSS 등으로 캐릭터를 제작하였다. 아직 센서들과 통신을 하지 않기 때문에, 3초가 지나면 사진이 찍혀 ⓐ의 단계로 넘어가도록 코드를 작성했다.<br />
웹 소켓 : 동적인 웹 클라이언트를 만들기 제작하기 위해 웹 소켓을 사용하였다. 서버에서 연산한 결과를 클라이언트로 데이터를 전송해 사용자가 실시간으로 검사 결과를 확인할 수 있다.</p>
<p>ⓒ 모터, 센서 기능 구현<br />
아두이노 IDE를 사용해 물체가 들어오고 나감을 알 수 있도록 초음파센서 관련 함수를 작성하였고, 분리수거 &amp; 반환을 위해 모터 함수를 작성하였다.</p>
<p><span style="color: #cc33b6"><strong>소프트웨어 3주차</strong></span><br />
ⓐ MQTT 통신</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-30.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41146" alt="68 ict_ 투명페트분리배출 (30)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-30.png" width="591" height="339" /></a><br />
MQTT 통신을 사용하여 각 디바이스가 상호작용한다. MQTT 통신을 사용한 이유는 클라이언트-서버 구조로 이뤄진 HTTP, TCP는 주로 클라이언트 요청에 대한 서버에 응답으로 통신하기 때문에 디바이스 간 통신이 어렵다. 반면, MQTT는 broker, publisher, subscriber 구조로 이루어져 있으므로, broker가 중계하고 client 간의 통신이 가능하다. 라즈베리파이에 브로커를 설치하고, 감각기관, 동작기관, 웹서버가 client가 되어 각자 필요한 메시지를 보내고, 받은 메시지를 통해 동작을 실행한다.</p>
<p>ⓑ 사용자 인터페이스 추가(웹 클라이언트)</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-31.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41147" alt="68 ict_ 투명페트분리배출 (31)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-31.png" width="579" height="207" /></a></p>
<p>메인화면 : 분리수거 성공과 실패에 따라서 메인화면의 캐릭터 얼굴이 변화한다.<br />
설명페이지 : 사용자가 재활용 방법과 로봇의 검출 과정에 대해 학습할 수 있다.</p>
<p>ⓒ 사용자 인터페이스 추가(음성)</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-32.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41148" alt="68 ict_ 투명페트분리배출 (32)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-32.png" width="574" height="254" /></a></p>
<p>교육적인 로봇의 목표에 재활용에 관한 피드백을 제공하기 위해 음성 파일을 각 단계별로 출력되게 제작하였다.</p>
<p><span style="color: #cc33b6"><strong>소프트웨어 4주차</strong></span><br />
ⓐ 각 디바이스에 MQTT 통신을 구현하였다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>라즈베리파이(MQTT code)<br />
var mqtt_client = mqtt.connect(&#8216;mqtt://192.168.0.51&#8242;)<br />
mqtt_client.on(&#8216;connect&#8217;, function () {<br />
mqtt_client.subscribe(&#8216;raspi&#8217;, function (err) {<br />
if (!err) {<br />
console.log(&#8216;subscribe : raspi&#8217;);<br />
}<br />
})<br />
})</p>
</div>
<p>mqtt://주소를 통해 라즈베리파이에 구축한 브로커에 연결하여 ‘raspi’를 구독하였다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>감각기관, 동작기관 (MQTT code)<br />
while (!client.connected()) {<br />
Serial.print(&#8220;Attempting MQTT connection&#8230;&#8221;);<br />
if (client.connect(&#8220;ESP8266Client&#8221;)) {<br />
Serial.println(&#8220;connected&#8221;);<br />
client.subscribe(&#8220;sensor&#8221;);<br />
} else {<br />
Serial.print(&#8220;failed, rc=&#8221;);<br />
Serial.print(client.state());<br />
Serial.println(&#8221; try again in 5 seconds&#8221;);<br />
delay(5000);<br />
}<br />
}</p>
</div>
<p>esp8266 mini에서 MQTT 브로커로 연결하여 감각기관의 경우 ‘sensor’을 동작기관의 경우 ‘motor’을 구독한다.<br />
2주차에서 분담을 통해 구현한 물체 감지, 모터작동 기능들을 MQTT 통신에 맞게 코드를 수정하였다.</p>
<p><span style="color: #cc33b6"><strong>소프트웨어 5주차</strong></span><br />
물체 테스트를 진행 중에 color-thief 모듈을 이용한 rgb검출에 대한 문제점이 드러났다. vision API보다는 작은 이물질에 대해 식별 가능했지만, 더 작은 이물질에 대해서는 검출하기 어려웠고, 결정적으로 배경색과 RGB 값이 비슷한 흰색, 검은색은 검출하기 어려웠다. 대체방법으로 이미지를 RGB matrix으로 변환해주는 모듈인 color-to-rgba-matrix를 사용하여 픽셀 단위의 분석을 진행하였다. 픽셀 단위로 연산량을 줄이기 위해 물체의 위치에 따른 분석하는 방법을 생각하였고, vision API에 위치 정보를 제공해주는 함수를 사용해 경곗값과 크기를 측정했다.</p>
<p><span style="color: #cc33b6"><strong>소프트웨어 6주차</strong></span><br />
ⓐ 사용자 인터페이스(웹 클라이언트)</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-1.png" rel="lightbox[40957]"><img class="alignnone size-full wp-image-41117" alt="68 ict_ 투명페트분리배출 (1)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-투명페트분리배출-1.png" width="583" height="208" /></a></p>
<p>5주차에서 측정한 경계값을 웹 클라이언트에 전송하여 BOX 형태로 표시하도록 하였다. 이는 사용자가 물체 분석되는 과정을 확인하는데 도움을 준다.</p>
<p>ⓑ 감각기관 코드 수정<br />
감각기관의 변수를 수정하였다. 이전에는 문이 열리고 닫히면, 물체가 들어왔음을 감지했었는데, 조건문을 추가하여 무게 센서값까지 측정하는 방법으로 변경하였다.</p>
<p>ⓒ 연결상태 확인 추가<br />
로봇을 테스트하기 위해 서버를 실행하는 과정에서 통신상태를 확인하지 않고, 실행한 경우, 연결상태를 확인하지 않고 실행해 로봇의 흐름이 섞이는 일이 발생했다. 이러한 문제를 해결하기 위해 처음 서버가 실행되기 전 MQTT 통신상태를 확인하기 위한 메시지를 보낸다. 메시지를 받은 디바이스는 초기화를 진행하고, 답변을 전달한다. 답변을 받은 라즈베리파이는 웹 서버를 실행시킨다.</p>
<p><span style="color: #ff6600"><strong>5. 사용한 제품 리스트</strong></span></p>
<table style="width: 620px" border="1" cellspacing="0" cellpadding="2">
<tbody>
<tr>
<td style="text-align: center">모델명</td>
<td style="text-align: center">디바 상품번호</td>
</tr>
<tr>
<td style="text-align: center">SEN0160</td>
<td style="text-align: center">1278214</td>
</tr>
<tr>
<td style="text-align: center">HC-SR04</td>
<td style="text-align: center">1076851</td>
</tr>
<tr>
<td style="text-align: center">MG996R</td>
<td style="text-align: center">1313388</td>
</tr>
<tr>
<td style="text-align: center">WeMos D1 mini</td>
<td style="text-align: center">1327519</td>
</tr>
<tr>
<td style="text-align: center">Raspberry Pi 4 Model B</td>
<td style="text-align: center">12234534</td>
</tr>
<tr>
<td style="text-align: center">Raspberry Pi Touch Display</td>
<td style="text-align: center">1273487</td>
</tr>
<tr>
<td style="text-align: center">TS-CS01BO</td>
<td style="text-align: center">-</td>
</tr>
<tr>
<td style="text-align: center">밝기조절 발광 LED 라이트</td>
<td style="text-align: center">-</td>
</tr>
<tr>
<td style="text-align: center">RPI 8MP CAMERA BOARD</td>
<td style="text-align: center">1077951</td>
</tr>
</tbody>
</table>
<p><strong style="color: #ff6600">6. 후속연구제안</strong></p>
<p><span style="color: #3366ff"><strong>6.1. 배경 색과 빛 반사</strong></span><br />
페트병의 투명성 여부를 판단하는 과정은 사진을 촬영하여 배경색과의 유사도를 검사하는 방식으로 진행된다. 이 때, 두 가지 문제점이 발생한다. 만약 라벨이나 이물질 등이 배경색과 유사한 색이라면 로봇은 ‘투명한 페트병’인 것으로 판별하게 된다. 또한 플라스틱 표면에 빛을 비추면 빛이 반사되어 카메라로 사진을 찍으면 반사된 부분이 흰색으로 인식되어 투명성 판별에 장애요소가 될 수 있다. 이는 신뢰도 하락과 재활용률 하락으로 이어지는 문제이므로 주의가 필요하다. 본 작품은 배경색을 회색(카메라로 촬영했을 때 R, G, B 세 값의 표준편차가 15이내, 평균은 40이상 180이하. 이때, 각 값은 0~255사이의 값을 갖는다.)으로 설정하여 라벨이나 이물질의 색과 분명한 차이를 둘 수 있도록 하였다. 그러나 만약 회색으로 이루어진 플라스틱 제품이 나오게 되면 본 작품에서 채택한 투명성 판별법은 신뢰도가 떨어지게 된다. 또한 빛 반사문제는 카메라를 사용한다면 피할 수 없는 문제이므로 해결하기 어렵다. 따라서 후속연구에서는 LPKF TMG 3 등의 광투과율 측정 장치를 이용하여 플라스틱의 투명도를 정확하게 측정할 수 있도록 할 것을 제안한다.</p>
<p><span style="color: #3366ff"><strong>6.2. 플라스틱 압축 기능</strong></span><br />
플라스틱은 압축하여 배출해야 쓰레기통이나 쓰레기봉투를 효율적으로 사용할 수 있다. 따라서 플라스틱을 쓰레기통에 담는 과정에서 플라스틱을 압축하는 기능이 있으면 좋겠다는 생각을 했다. 이를 위해서는 강한 모터나 압축기가 필요한데 전력소비, 무게, 부피, 예산 등의 측면에서 효율성이 떨어지므로 배제하였다. 대체할 수 있는 기능으로는 페트병이 압축되었는지의 여부를 판단하는 방법이 있다. 이를 구현하려 하였으나, 압축된 페트병을 판별할 수 있는 명확한 기준을 찾기는 힘들었다. 비슷한 크기의 페트병이라면 무게도 비슷할 것이라고 가정하고 압축된 페트병과 압축되지 않은 페트병의 (넓이/무게) 값을 비교하였으나 유의미한 데이터를 얻지 못했기 때문에 페트병이 압축되었는지 판별하는 기능은 구현하지 못했다. 따라서 후속연구에서는 플라스틱 압축 기능이나 압축되지 않은 플라스틱을 구별하는 기능을 추가할 것을 제안한다.<br />
<strong></strong></p>
<p><span style="color: #3366ff"><strong>6.3. 처리량</strong></span><br />
본 작품은 한 번에 1개의 페트병만 검사할 수 있다. 따라서 많은 양의 페트병을 버리려고 한다면 하나씩 천천히 넣어줘야 한다. 이는 굉장히 불편한 작업이므로 본 작품을 일상생활에서 사용하기 위해서는 이 문제를 반드시 해결해야 한다. 그러나 한 번에 검사할 수 있는 페트병의 수는 제한적이다. 따라서 큰 통에 페트병을 담아두고 거기에서 하나씩 꺼내서 검사하는 방법을 생각해볼 수 있다. 그런데, 사진을 찍는 시간은 약 10초, 재활용 가능한 플라스틱인지 분석하는 시간은 약 10초로 한 페트병을 처리하는 것에 평균 20초의 시간이 소요된다. 이는 디스플레이에 분석과정을 보여주고 음성으로 안내하기 위해서 의도적으로 시간을 늘린 것인데, 많은 양의 페트병을 처리하는 것에 방해요소로 작용한다. 따라서 안내하는 것을 간소화하는 것으로 시간을 단축할 수 있다. 또한 여러 개의 페트병을 한 번에 촬영하여 처리시간을 단축하는 방법도 있다. 단, 한 번에 많은 페트병을 처리할 경우, 그 중에서 재활용 되지 않는 패트병을 골라내는 방법에 대한 고찰이 선행되어야 한다.</p>
<p><span style="color: #ff6600"><strong>7. 참고문헌</strong></span><br />
· 그린피스 김이서(2019년 12월),플라스틱 대한민국- 일회용의 유혹https://www.greenpeace.org<br />
· 투명 페트병 재활용 제품 안내, 환경부 :https://www.newsro.kr<br />
· 최병용(2021.02.19), 투명 페트병 분리배출 현장에 가보니~ : https://www.korea.kr/news/reporterView.do?newsId=148883922</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.ntrexgo.com/archives/40957/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>[68호]스마트 쇼핑 카트</title>
		<link>http://www.ntrexgo.com/archives/40955</link>
		<comments>http://www.ntrexgo.com/archives/40955#comments</comments>
		<pubDate>Mon, 25 Oct 2021 00:00:26 +0000</pubDate>
		<dc:creator>디바이스마트 매거진</dc:creator>
				<category><![CDATA[디바이스마트 매거진]]></category>
		<category><![CDATA[특집]]></category>
		<category><![CDATA[ict]]></category>
		<category><![CDATA[ict공모전]]></category>
		<category><![CDATA[공모전]]></category>
		<category><![CDATA[디바이스마트]]></category>
		<category><![CDATA[매거진]]></category>
		<category><![CDATA[수상작]]></category>
		<category><![CDATA[융합]]></category>
		<category><![CDATA[프로젝트]]></category>

		<guid isPermaLink="false">http://www.ntrexgo.com/?p=40955</guid>
		<description><![CDATA[디바이스마트 매거진 68호 &#124; 거동이 불편한 사람들의 오프라인 쇼핑을 도울 수 있는 카트를 개발하여, 기존 쇼핑 방식보다 쉽고, 편리하고, 안전한 쇼핑을 제공하여 더 나은 소비 활동을 할 수 있도록 돕는다. ]]></description>
				<content:encoded><![CDATA[<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-42.png" rel="lightbox[40955]"><img class="alignnone size-large wp-image-41109" alt="68 ict_ 스마트쇼핑카트 (42)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-42-620x202.png" width="620" height="202" /></a></p>
<p><span style="font-size: medium"><strong>2021 ICT 융합 프로젝트 공모전 우수상</strong></span></p>
<p><span style="font-size: x-large"><strong><span style="color: #ff6600">스마트 쇼핑 카트</span><br />
</strong></span></p>
<p style="text-align: right">글 | 영남대학교 양성은, 박유나, 이유진, 김형덕</p>
<p><span style="color: #ff6600"><strong>1. 심사평</strong></span><br />
<strong>칩센</strong> 작품은 상품의 구매와 위치 측량의 두 가지 큰 목표로 보입니다. 우선 상품 취득과 결제 부분에 있어서는 목표량을 어느 정도 달성한 것으로 보입니다. 또 다른 목표였던 위치측량 관련하여 상품의 위치를 통한 navigating 기능을 구현하기 위하여 사용자의 위치를 측정해야 하는 구조로 이해됩니다. 작품을 개발하며 목표로 한 내역에 대하여는 어느정도 위치 측량을 성공하였다고 볼수도 있지만, 실제로 상용화에 있어서는 위치 측량에 대한 많은 변수들이 존재하여 실내의 Map이 함께 조합되어 정확한 실내 위치를 파악하게 하는 등의 다양한 방식의 알고리즘과 방안이 적용되고 있고, 이러한 부분에 대한 추가적인 연구 검토를 한다면 더욱 개선된 제품을 제작할 수 있을 것으로 보입니다.<br />
<strong></strong></p>
<p><strong>펌테크</strong> 아이디어와 실용성이 돋보이며 짜임새 있게 잘 구성한 수준급 작품이라고 생각합니다. 실내 위치 측정을 위한 비컨 연동 과정에서의 시행착오가 있었음에도 불구하고 전체적으로 시스템 구성을 위한 각각의 난이도 있는 소프트웨어 구성을 효율적으로 접목하여 기획의도에 맞게 시스템을 안정적이고 완성도 높게 구현된 스마트카트 제품이라고 생각이 듭니다. 추후 작품 완성도를 높인다면 상업적으로도 충분히 활용될 수 있는 상품성을 가진 훌륭한 작품이 되리라 생각됩니다.<br />
<strong></strong></p>
<p><strong>위드로봇</strong> 학습 용도로는 좋은 주제이지만, 실용적인 측면에서는 위치 측량, 결제 등 해결해야 할 문제가 많은 작품입니다.<br />
<strong></strong></p>
<p><strong>뉴티씨</strong> 배려심이 느껴지는 작품입니다. 코로나19로 여러 가지로 어려운 상황에서, 같은 작품을 해도 어떤 마음으로 하는 가에 따라서, 의도가 다르므로 전혀 다른 결과가 나올 수 있습니다. 그런데, 몸을 움직이는 것이 불편하신 어르신들을 생각하여, 자동으로 계산이 되는 스마트쇼핑카트를 생각할 수 있었다는 것이 매우 중요한 가치라고 생각됩니다. 스마트 쇼핑카트라는 것은 오래전부터 인기 있는 작품의 주제로 만들어져왔지만, 이 작품은 비콘을 이용한 삼각측량법으로 위치인식까지 고려하여 제작하여 제품을 빠른 경로로 찾으러 갈 수 있도록 하는 부분도 함께 작성되었네요. 매우 좋은 작품을 제작하였습니다. 다양한 분야에서 활용될 수 있을 것 같고, 학생들이 좀 더 힘내서, 좋은 분야로의 응용을 기대하겠습니다.</p>
<p><span style="color: #ff6600"><strong>2. 작품 개요</strong></span><br />
스마트 쇼핑 카트는 거동이 불편한 사람들에게 편리한 쇼핑 환경을 제공해 주기 위한 보조 장치이다. 이 프로젝트를 생각하게 된 계기는 마트에서 쇼핑을 하다가 물건이 많아 카트를 끌고 계셨지만, 몸이 불편하셔서 카트를 끌기조차 매우 어려워 보이는 분을 보고 ‘거동이 불편하신 분들도 대형마트에서 편하게 쇼핑을 할 수 있게 할 방법이 없을까?’ 라고 생각하다가 개발하게 됐다. 프로젝트의 구현으로는 대형 마트 내에서 실내 측위 시스템을 사용하여 구매하고자 하는 물건의 위치까지 최단 경로를 알려주어 효율적인 쇼핑을 가능하게 한다. 카트에 부착된 바코드 스캐너에 구매 물품의 바코드를 찍으면 데이터베이스 내에 존재하는 물품의 정보를 자동으로 관리할 수 있게 하고, 구매 상품의 행사 정보를 음성으로 알려준다. 결제 버튼을 누를 시, App에서 간단하게 결제할 수 있도록 한다. 현재의 전동 카트는 원하는 상품 코너로 이동하는 것 정도로 발전되어 있는데, 거기에 우리 팀의 프로젝트는 최단거리 알고리즘(Traveling Salesman’s Problem)을 적용하고, 결제 서비스까지 연동하여 사물 인터넷 개념을 적용해 현대에 어울리는 더욱 스마트한 카트로 발전시킨다.<br />
<strong></strong></p>
<p><span style="color: #3366ff"><strong>2.1. 개발 목표</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-1.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41066" alt="68 ict_ 스마트쇼핑카트 (1)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-1.png" width="553" height="188" /></a><br />
거동이 불편한 사람들의 오프라인 쇼핑을 도울 수 있는 카트를 개발하여, 기존 쇼핑 방식보다 쉽고(easy), 편리하고(convenient), 안전한(safe) 쇼핑을 제공하여 더 나은 소비 활동을 할 수 있도록 돕는다. 더 나아가 스마트 카트가 보급화 된다면 거동이 불편한 사람뿐만 아니라, 바쁜 현대인들에게도 최단 경로로 원하는 물품이 어디에 있는지 바로바로 알 수 있고, 결제까지 한 번에 해결하는 효율적인 쇼핑 수단이 될 것이다.<br />
<strong></strong></p>
<p><span style="color: #3366ff"><strong>2.2. 개발 작품의 필요성</strong></span><br />
일반 사람들도 쇼핑을 할 때 원하는 물건이 어디 있는지 자주 구매하는 물품이 아니라면 알기 어려운데, 거동이 불편한 사람들이나 장시간 쇼핑이 어려운 노약자들은 그것으로 인해 불편한 몸을 이끌고 물건을 가지러 갔다가 헤매고 다시 계산하러 계산대까지 이동한다면, 일반 사람들보다 몇 배는 힘들고 제한될 것이다. 하지만 우리 프로젝트를 통해 이동 동선을 최소화하고, 시선이 닿지 않는 곳에 기재된 할인 정보를 음성으로 접할 수 있게 됨과 동시에 결제까지 스마트 카트 하나로 끝낼 수 있어서 보통 사람들처럼 불편함 없는 쇼핑이 가능하여 더 나은 쇼핑이 가능하게 한다.</p>
<p><span style="color: #3366ff"><strong>2.3. 기대효과</strong></span><br />
· 거동이 불편한 사람들이 쇼핑에서 불편함을 느낄 수 있는 부분들을 지원하여 더욱 나은 쇼핑 생활을 가능케 한다.<br />
· 스마트 쇼핑 카트가 여기에서 더 나아가 발전하고 보급된다면 일반 사람들도 기존의 쇼핑 방식 보다 더욱 효율적인 쇼핑 할 수 있다.<br />
· 탈부착이 가능하도록 구성하여 유연성을 가지고 있으며, 효율적인 활용이 가능하다.<br />
· 실내 위치 측위의 발전 가능성을 기대할 수 있다.</p>
<p><span style="color: #ff6600"><strong>3. 작품 설명</strong></span><br />
<span style="color: #3366ff"><strong>3.1. 주요 동작 및 특징</strong></span><br />
<span style="color: #33cccc"><strong>3.1.1. 주요 기능 소개</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-2.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41068" alt="68 ict_ 스마트쇼핑카트 (2)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-2.png" width="620" height="289" /></a><br />
전체적 구성은 라즈베리파이에 모니터와 바코드스캐너와 스피커가 연결되어있다. 이는 쇼핑 카트에 탈부착 할 수 있으며 또한 결제 어플과 연동된다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-3.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41070" alt="68 ict_ 스마트쇼핑카트 (3)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-3.png" width="620" height="289" /></a></p>
<p>기능 1(실내 측위): RF모듈의 RSSI 값으로 삼변측량법을 이용한다. Raspberry Pi가 3개의 RF모듈을 통해 얻은 RSSI 값으로 거리를 구하여 마트 내에서 구매자의 위치를 파악한다. 파악한 위치를 통해 구매자와 구매하고자 하는 상품코너와의 거리를 파악할 수 있다.<br />
기능 2(최단 경로 안내): 삽변측량법과 같이 Traveling Salesman’s Problem을 이용하여 사용자가 물품 구매 시 최단 경로로 이동할 수 있도록 한다. 구매하고자 하는 상품들을 선택할 시, 실내 측위 기술을 통해 구매자의 위치를 기준으로 가장 짧고 빠르게 상품까지 도달할 수 있는 경로를 제공한다.<br />
기능 3(장바구니 &amp; 상품 Database 설명): 바코드 스캔을 통해 데이터베이스를 조회하여 상품의 행사 정보를 음성으로 알려주고 장바구니에 담긴 구매 물품들을 자동으로 관리할 수 있게 한다. 또 디스플레이로 장바구니 목록을 보여줌으로써 삭제 또는 추가 등의 자유로운 수정이 가능하다.<br />
기능 4(결제기능): 카트에 부착된 모니터에서 결제버튼을 누르게 되면, 연동된 어플리케이션에서 결제가 가능하다.<br />
<strong></strong></p>
<p><span style="color: #33cccc"><strong>3.1.2. RSSI 알고리즘 동작 및 특징</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-1.jpg" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41065" alt="68 ict_ 스마트쇼핑카트 (1)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-1.jpg" width="169" height="254" /></a></p>
<p>RF 비콘을 3개 생성하여 삼각측량법에 이용할 수 있도록 구성하였다. 비콘의 신호를 감지하기 위해 라즈베리파이를 오른쪽과 같이 비콘 수신기로 구성하였다. 비콘의 신호를 수신하여 rssi값으로 거리를 측정하고 현재의 위치를 추적할 수 있도록 한다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-4.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41071" alt="68 ict_ 스마트쇼핑카트 (4)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-4.png" width="620" height="307" /></a></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-5.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41072" alt="68 ict_ 스마트쇼핑카트 (5)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-5.png" width="620" height="197" /></a><br />
Raspberry Pi가 RF Beacon에게 Data를 얻어와 TXpower와 RSSI값을 분리하여, RSSI에 따른 거리를 구한다. 3개의 비콘 모두 거리를 구해, 삼변측량법을 사용하여 목표위치를 파악할 수 있다.<br />
비콘의 RSSI 값을 이용하여 직선거리를 구하는 공식을 이용하였습니다. 공식을 적용하기 위 TX Power 와 RSSI 값을 정제하여 거리 공식에 대입하였다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-6.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41073" alt="68 ict_ 스마트쇼핑카트 (6)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-6.png" width="620" height="197" /></a></p>
<p>3개 비콘의 각각의 좌표와 측정한 직선거리를 이용하여 삼변 측량법을 적용해 사용자의 현재 좌표를 출력하였다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-7.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41074" alt="68 ict_ 스마트쇼핑카트 (7)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-7.png" width="620" height="161" /></a></p>
<p><span style="color: #33cccc"><strong>3.1.3. 최단 경로 안내 알고리즘 동작 및 특징</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-8.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41075" alt="68 ict_ 스마트쇼핑카트 (8)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-8.png" width="620" height="341" /></a></p>
<p>TSP(Traveling Salesperson Problem)을 이용하였다. TSP 알고리즘이란 원래 여러 도시들이 있을 때 한 도시로부터 시작해서 모든 도시를 단 한 번씩만 방문하여 다시 시작점으로 돌아오는데 드는 최단거리를 구하는 문제이다. 여기서 우리는 도시를 상품의 코너로 가정하였다. 입구에서 출발하여 각 선택된 코너들을 거치고 다시 입구로 돌아오는 식으로 최단경로 안내 문제를 해결하였다. 중간에 생각하지 못했던 필요한 물품이 생길 시 코너를 추가 선택한 후 안내를 누르면 다시 그 자리에서 시작하는 최단 경로를 시각화 하여 카트에 부착된 모니터로 안내해 준다. 전수 조사 방식으로 진행하여서 각 경로를 기억하기 위해 스택을 사용했다. 거리를 구하고 스택에서 각 경로의 거리 중 가장 짧은 경로를 선정하여 사용자에게 안내해 준다.<br />
<strong></strong></p>
<p><span style="color: #33cccc"><strong>3.1.4. 장바구니 &amp; 상품 Database 알고리즘 동작 및 특징</strong></span><br />
<span style="color: #339966"><strong>상품 Database:</strong> </span>먼저 MySql DB를 라즈베리파이에 설치한다. 명령어를 통해 데이터베이스를 생성한 후 데이터베이스 내에서 테이블을 생성한다. 테이블을 생성할 때에 바코드번호, 상품 이름, 상품 가격을 받아오도록 자료형을 지정해주고 테이블을 만들어준다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-9.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41076" alt="68 ict_ 스마트쇼핑카트 (9)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-9.png" width="591" height="165" /></a></p>
<p><span style="color: #339966"><strong>장바구니 기능:</strong></span> while문을 통해 항시 입력을 대기하며, 바코드 스캐너로 물품의 바코드를 찍으면 Database Table에서 해당 물품의 정보를 가져와 목록에 저장을 한다. 생성해 놓은 데이터베이스를 파이썬과 연동하여 데이터베이스를 조회할 수 있도록 구성하였다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-10.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41077" alt="68 ict_ 스마트쇼핑카트 (10)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-10.png" width="588" height="108" /></a><br />
연동 방법은 pymysql이라는 파이썬 라이브러리를 설치해주었다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-11.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41078" alt="68 ict_ 스마트쇼핑카트 (11)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-11.png" width="586" height="105" /></a></p>
<p>저장한 목록은 디스플레이에 출력하여 사용자가 구매할 물품이 장바구니에 담긴 것을 시각정인 정보로 제공한다. Pandas를 이용하여 시각화하였다. 아래의 사진을 보면 시각화된 모습을 볼 수 있다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-12.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41079" alt="68 ict_ 스마트쇼핑카트 (12)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-12.png" width="589" height="479" /></a></p>
<p>장바구니에 담긴 물품들 중, 구매하지 않을 물품을 삭제할 때 입력창에 1을 입력하면 delete mode로 바뀐다. 디스플레이에서 제공하는 상품의 목록을 통해 삭제할 물품의 인덱스 번호를 입력하면 쉽게 삭제가 가능하다.</p>
<p><span style="color: #339966"><strong>행사 정보 안내 기능:</strong></span> 사용자에게 물품의 행사 정보를 쉽고, 간편하게 제공할 수 있는 방법에는 음성 안내 기능이 있다. 구매하려는 물품의 바코드를 스캔하면, 장바구니 목록에 담김과 동시에 해당 물품의 행사 정보를 음성으로 안내해준다. 음성 안내 기능은 TTS(Text to Sound)로 구현하였으며, 문자열로 넘겨주도록 했다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-13.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41080" alt="68 ict_ 스마트쇼핑카트 (13)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-13.png" width="620" height="161" /></a></p>
<p><span style="color: #33cccc"><strong>3.1.5. 결제기능 동작 및 특징</strong></span><br />
Application과 Raspberry Pi간의 소켓통신으로 장바구니에 담긴 최종 금액을 APP으로 넘겨준다.(소스코드 [첨부 19] 참고) 통신 방식은 소켓통신을 이용하였다. 라즈베리파이가 클라이언트가 되도록 구성하고 App이 서버가 되도록 구성하였다. App에서 제공해주는 IP를 입력한 후 데이터를 전송하게 된다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-14.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41081" alt="68 ict_ 스마트쇼핑카트 (14)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-14.png" width="323" height="417" /></a><br />
넘겨받은 데이터를 토대로 결제 기능을 제공하며, 해당 결제 기능은 안드로이드 스튜디오에 Bootpay SDK를 연동하여 결제 테스트를 할 수 있도록 구성하였다. 안드로이드용 Application ID를 Bootpay 관리자에서 가져와 연동하였다. 안드로이드 라이브러리는 내부적으로 WebView를 이용하여 구현되어 있다. Javascript SDK를 안드로이드 WebView에서 구현한 방식으로, 결제연동, 결제결과에 대한 라이프 사이클 함수가 제공된다. 따라서 안드로이드 레이아웃에 View를 줌으로써 결제 창을 띄우도록 구성하였다.<br />
<strong></strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-15.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41082" alt="68 ict_ 스마트쇼핑카트 (15)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-15.png" width="620" height="352" /></a></p>
<p><span style="color: #33cccc"><strong>3.1.6 프로그램 사용법</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-16.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41083" alt="68 ict_ 스마트쇼핑카트 (16)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-16.png" width="594" height="90" /></a><br />
처음 모드선택에서 0번을 선택할 시 경로안내 모드로 들어가게 된다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-2.jpg" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41067" alt="68 ict_ 스마트쇼핑카트 (2)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-2.jpg" width="589" height="508" /></a></p>
<p>화면에서 처음에 방문하고자 하는 코너를 선택할 수 있다. 코너를 다 선택하면 최단경로가 시각적 정보로 사용자에게 안내된다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-17.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41084" alt="68 ict_ 스마트쇼핑카트 (17)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-17.png" width="591" height="69" /></a></p>
<p>안내 후 다시 모드선택으로 되돌아온다. 여기서 1번을 선택하게 되면 장바구니 모드로 들어가게 된다. 장바구니 모드에서 바코드 스캔을 통해 장바구니를 추가할지 구성된 장바구니 목록을 삭제할지 결제 할지를 선택할 수 있다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-18.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41085" alt="68 ict_ 스마트쇼핑카트 (18)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-18.png" width="588" height="113" /></a></p>
<p>&nbsp;</p>
<p>먼저, 바코드를 스캔하면 TTS(Text to Speech)로 상품의 행사정보를 사용자에게 음성안내를 해준다. 모니터에는 상품이 추가된 장바구니 목록을 볼 수 있다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-19.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41086" alt="68 ict_ 스마트쇼핑카트 (19)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-19.png" width="587" height="75" /></a></p>
<p>다른 상품의 바코드를 찍으면, 장바구니 목록에 새로운 상품이 추가된 것을 볼 수 있다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-20.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41087" alt="68 ict_ 스마트쇼핑카트 (20)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-20.png" width="590" height="227" /></a></p>
<p>같은 상품을 여러 번 찍으면 목록이 새로 추가되는 것이 아니라 해당 상품의 수량만 늘어나는 것을 볼 수 있다.<br />
바코드 스캔 대신 1을 2번 입력하면 삭제 모드로 들어간다. 현재까지 구성된 장바구니 목록을 보여주며 삭제하고자 하는 목록의 인덱스를 입력하면 삭제가 된다. 다음 사진을 보면 삭제가 되는 것을 확인할 수 있다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-21.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41088" alt="68 ict_ 스마트쇼핑카트 (21)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-21.png" width="587" height="80" /></a></p>
<p>마찬가지로 바코드 스캔 대신 2를 2번 입력하면 결제 모드로 들어가게 된다. 앱에서 제공하는 IP정보를 입력하면 결제정보를 App으로 전송하며 결제 가능하다. 다음 사진을 보면 결제가 청구된 것을 확인할 수 있다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-22.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41089" alt="68 ict_ 스마트쇼핑카트 (22)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-22.png" width="236" height="224" /></a></p>
<p><span style="color: #33cccc"><strong>3.1.7 전체 알고리즘 동작 및 특징</strong></span><br />
<strong></strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-23.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41090" alt="68 ict_ 스마트쇼핑카트 (23)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-23.png" width="576" height="415" /></a></p>
<p><span style="color: #3366ff"><strong>3.2. 전체 시스템 구성</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-24.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41091" alt="68 ict_ 스마트쇼핑카트 (24)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-24.png" width="620" height="315" /></a><br />
<span style="color: #33cccc"><strong>3.2.1 하드웨어 구성</strong></span><br />
· Raspberry Pi<br />
· Barcode scanner<br />
· Speaker<br />
· Monitor<br />
<strong></strong></p>
<p><span style="color: #33cccc"><strong>3.2.2 소프트웨어 구성</strong></span><br />
· MySQL Database<br />
· TSP algorithm source<br />
· 삼변측량 algorithm source<br />
· TTS source<br />
<strong></strong></p>
<p><span style="color: #33cccc"><strong>3.2.3 주요 동작 및 특징</strong></span><br />
· Barcode scan을 통한 상품, 장바구니 database 구성<br />
· Barcode scan을 통한 행사 정보 음성 안내 기능 TTS 구현<br />
· 삼변측량법을 통한 실내 위치 측위<br />
· TSP algorithm을 통한 최단경로 추적<br />
<strong></strong></p>
<p><span style="color: #3366ff"><strong>3.3. 개발 환경</strong></span><br />
<strong></strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-25.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41092" alt="68 ict_ 스마트쇼핑카트 (25)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-25.png" width="620" height="613" /></a></p>
<p>&nbsp;</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-26.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41093" alt="68 ict_ 스마트쇼핑카트 (26)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-26.png" width="605" height="268" /></a></p>
<p><span style="color: #ff6600"><strong>4. 단계별 제작 과정</strong></span><br />
<span style="color: #3366ff"><strong>4.1. Hardware</strong></span><br />
Raspberry PI에 보조배터리, 모니터, 스피커, 바코드 스캐너가 연결하였다. 전동 카트(장바구니)에 Raspberry Pi와 함께 전력을 공급해주는 보조배터리, 경로안내와 장바구니 목록을 시각화해줄 모니터, 해당 상품의 행사 정보를 음성으로 출력해줄 스피커를 부착한다. 또한, 바코드 스캐너를 쇼핑카트에 부착하였고, 스캔 시 UART 통신을 통해 라즈베리로 바코드 정보를 넘겨 상품을 장바구니 목록에 담을 수 있도록 한다. 담긴 상품의 목록은 모니터로 사용자에게 시각화 해줌으로써 사용자가 장바구니를 직접 보며 관리할 수 있도록 한다.</p>
<p><strong>탈부착식 모듈</strong><br />
탈부착 식 모듈로 전동 카트뿐만 아니라 일반 카트에도 부착할 수 있다. 탈부착 식이므로 전동 카트의 개수가 아닌 한 매장에 필요한 개수만 구비해도 됨으로 가격적 부담도 줄어들도록 했다.</p>
<p><strong>실내 측위를 위한 Bluetooth Beacon</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-27.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41094" alt="68 ict_ 스마트쇼핑카트 (27)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-27.png" width="253" height="208" /></a><br />
위치 추적을 위해 최소 3개의 블루투스 비콘을 마트에 설치함으로써 실내에서의 실제 위치를 추적 가능하다. 각각의 비콘마다 코인건전지 CR2032 3V 2개로 전원공급을 한다. 하지만, 1m 밖의 거리에서 정확도가 떨어지는 RSSI값을 확인할 수 있었다. 짧은 통신 거리의 한계로 Beacon을 이용할 때 1m 내의 범위에서 시연을 진행하였다.</p>
<p><strong>실내 측위를 위한 RF 통신</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-28.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41095" alt="68 ict_ 스마트쇼핑카트 (28)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-28.png" width="253" height="150" /></a></p>
<p>앞서 언급한 Buletooth Beacon의 짧은 통신 거리의 한계를 대체할 RF 통신을 구현하였다. RF통신은 통신 거리가 100m까지도 가능하기 때문에, 해당 문제점을 보완할 수 있다.<br />
다음과 같이 Beacon을 세 곳으로 설치하여 RF통신 시연을 진행하였다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-29.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41096" alt="68 ict_ 스마트쇼핑카트 (29)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-29.png" width="612" height="274" /></a></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-30.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41097" alt="68 ict_ 스마트쇼핑카트 (30)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-30.png" width="586" height="309" /></a></p>
<p>시현 위치에서 1분 동안 측정한 데이터의 그래프이다. 그래프를 보면 RSSI값의 변화에서 값이 비교적 일정하게 나오는 것을 볼 수 있어 그 전의 블루투스 Beacon보다는 거리 측면에서나 정확도 측면에서나 뛰어난 성능을 보여주고 있다.<br />
<strong></strong></p>
<p><span style="color: #3366ff"><strong>4.2 Software (Raspberry PI, Application)</strong></span><br />
<span style="color: #33cccc"><strong>4.2.1. 라즈베리파이</strong></span><br />
<strong>바코드 스캔 및 행사 정보 안내</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-31.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41098" alt="68 ict_ 스마트쇼핑카트 (31)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-31.png" width="197" height="230" /></a></p>
<p>상품을 장바구니에 담는 방법은 간단하다. 카트에 부착된 바코드 스캐너로 상품의 바코드를 스캔하면 장바구니에 담긴 것을 모니터로 확인이 가능하다. 같은 상품의 바코드를 여러 번 스캔 할 시 같은 목록이 여러 개 생기는 것이 아니라 같은 상품의 수량만 늘어나게 하였다. 모니터를 통해 장바구니 목록의 삭제, 수정을 제공한다. 또한 행사 중인 물품은 카트에 부착된 바코드 스캐너를 통해 바코드를 찍을 때 TTS(Text to Speech)로 상품의 이벤트 정보를 읽어준다. 해당 바코드에 찍힌 번호는 자료형을 int로 성언하면 오버로드가 되기 때문에 VARCHAR 형으로 자료형을 바꾸어 해결할 수 있다.</p>
<p><strong>최단 경로</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-32.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41099" alt="68 ict_ 스마트쇼핑카트 (32)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-32.png" width="215" height="211" /></a><br />
해당 매장의 코너의 데이터들은 모두 저장이 되어있다는 가정하에 진행이 된다. 사용자가 방문하고자 하는 코너를 모니터상으로 선택할 시, TSP (Traveling Salesperson Problem) 알고리즘을 이용한다. 실내 측위 정보로 현재 위치로부터 최단거리를 계산하게 된다. 최단의 이동경로를 모니터를 통해 사용자에게 안내해준다.</p>
<p><strong>실내 측위</strong><br />
<span style="color: #339966"><strong>실내 측위 기능:</strong></span> 사용자에게 현재 어느 위치에 있는지 실시간으로 사용자에게 알려주고 최단 경로 안내에도 쓰인다. 건물에 설치되어 있는 비콘의 신호를 수신하여 삼각측량법을 통해 현재 위치를 계산한다.</p>
<p><strong>장바구니</strong><br />
상품 정보의 관리는 MySQL DB를 이용하여 물품의 Database를 구축하여 상품정보를 등록해 놓았다. MySQL에서 기존에 만들어놓은 table을 삭제하지 않고 같은 이름으로 다시 생성하면 오류가 발생하기 때문에 기존 table을 삭제하고 다시 생성해야한다. Python과 연동하여 바코드 번호로 조회 할 수 있게 구성하였고, 카트에 연결된 모니터에 결제 버튼을 누르면 연동된 App(부트페이)으로 결제정보를 보냄으로써 결제 할 수 있게 하였다.<br />
App은 원래의 마트나 (홈플러스, 이마트 등) 대형마트에서 제공하는 App으로 결제 정보를 보낸다고 가정했지만 실제 App을 수정할 수 없어 결제기능만 있는 어플을 따로 구현하였다.</p>
<p><span style="color: #339966"><strong>상품목록 추가 :</strong> </span>상품의 바코드를 스캔할 시, 모니터 상으로 상품이 추가 된 것을 확인할 수 있다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-33.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41100" alt="68 ict_ 스마트쇼핑카트 (33)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-33.png" width="584" height="178" /></a></p>
<p><span style="color: #339966"><strong>상품목록 삭제 :</strong> </span>필요하지 않은 상품은 삭제 모드로 들어가 해당 상품의 인덱스를 지정해 삭제할 수 있다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-34.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41101" alt="68 ict_ 스마트쇼핑카트 (34)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-34.png" width="583" height="194" /></a><br />
결제 모드를 통해 어플에서 결제가 가능하다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-35.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41102" alt="68 ict_ 스마트쇼핑카트 (35)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-35.png" width="441" height="45" /></a></p>
<p><strong>GUI</strong><br />
경로 안내 모드에서 기존에 제시한 디스플레이는 텍스트 형식으로만 구성이 되어있었다. 이를 가독성있게 만들기 위해서 Python에서 사용하는 GUI를 이용해 시각화시켰다. 왼쪽의 메인 화면을 통해 모드를 선택할 수 있으며 경로와 장바구니 모드가 있다. 경로안내모드에서는 사용자가 원하는 코너를 선택하고 OK 버튼을 누를 수 있으며 취소하고 싶은 코너가 있다면 다시 한 번 누르고 OK 버튼을 누르면 된다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-36.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41103" alt="68 ict_ 스마트쇼핑카트 (36)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-36.png" width="620" height="493" /></a></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-37.png" rel="lightbox[40955]"><img alt="68 ict_ 스마트쇼핑카트 (37)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-37.png" width="620" height="264" /></a></p>
<p>장바구니 모드에서는 바코드 스캔이 주를 이룬다. 바코드로 상품을 스캔할 때마다 목록에 상품들이 쌓여간다. 삭제 기능도 제공하여 Check를 눌러 목록에서 삭제를 누를 수 있다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-38.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41105" alt="68 ict_ 스마트쇼핑카트 (38)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-38.png" width="314" height="285" /></a></p>
<p>마지막으로, 결제 버튼을 누르게 되면 사용자의 어플과 통신으로 해당 상품의 가격을 전송하게 된다.<br />
<strong></strong></p>
<p><strong style="color: #33cccc">4.2.2 어플리케이션</strong></p>
<p>안드로이드 스튜디오와 부트페이 SDK를 연동하여 가상 결제 기능을 제공한다. 인앱 결제 방식은 구현 시, 유로 모듈 결제가 필요하기 때문에 무료로 제공하는 Bootpay 방식을 사용하였다. Bootpay 사이트에서 결제 연동 시, 필요한 ID를 받아올 때 WEB Application ID로 잘못 받아와 실패하였다. Android Application ID를 제대로 받아와서 연동 문제를 해결할 수 있다. 또한 Android Studio Build.gradle(app)에서 compileSdkVersion은 30으로 설정하고, targetSdkVersion은 27로 설정하여 오류가 발생하였다. targetSdkVersion30으로 수정할 시, 정상 동작하는 것을 확인할 수 있다.<br />
<strong></strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-39.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41106" alt="68 ict_ 스마트쇼핑카트 (39)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-39.png" width="309" height="258" /></a></p>
<p><span style="color: #3366ff"><strong>4.3 주요 소스 코드 설명</strong></span></p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>#module Declaration<br />
import blescan<br />
import pymysql<br />
import pandas as pd<br />
from pandas import DataFrame as df<br />
import os<br />
import math<br />
import socket<br />
import sys<br />
import bluetooth._bluetooth as bluez<br />
from numpy import median<br />
</div>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>#Beacon Address<br />
beacon1=&#8221;e1c56db5dffb48d2b060d0f5a71096e0&#8243;<br />
beacon2=&#8221;e2c56db5dffb48d2b060d0f5a71096e0&#8243;<br />
beacon3=&#8221;e3c56db5dffb48d2b060d0f5a71096e0&#8243;<br />
dev_id=0<br />
count=0<br />
</div>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>#Beacon Position Setting<br />
position1=[45,90,0]
position2=[0,0,0]
position3=[90,0,0]
</div>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>#Use queue<br />
def push(element):<br />
global top<br />
top=top+1<br />
stack[top]=element<br />
def pop():<br />
global top<br />
ret=stack[top]
top=top-1<br />
return ret</p>
<p>def show():<br />
global top<br />
global mincorner<br />
global mincorv<br />
for i in range(0,top+1):<br />
mincorv +=&#8221; -&gt;&#8221;+stack[i][0]
<p>def getDistance(a,b):<br />
return math.sqrt((a[1]-b[1])*(a[1]-b[1])+(a[2]-b[2])*(a[2]-b[2]))<br />
</div>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>#Traveling Salesperson Problem<br />
def TSP(start, corner, number, sumv, now):<br />
global minv<br />
global totalCount<br />
global mincorner<br />
global mincorv<br />
count=0<br />
visited[start]=1<br />
for i in range(0,number):<br />
if visited[i]== 0:<br />
count=count+1<br />
visited[i]=1<br />
push(corner[i])<br />
TSP(start,corner, number,sumv+getDistance(corner[now], corner[i]),i)<br />
visited[i]=0<br />
pop()</p>
<p>if count == 0:<br />
mincorv=mincorv+&#8221;-&gt;&#8221;+corner[start][0]
sumv=sumv+getDistance(corner[now], corner[start])<br />
show()<br />
mincorv+=&#8221;\nDistance: &#8220;+ str(sumv)<br />
mincorner.append(mincorv)<br />
mincorv=&#8221;"<br />
if minv&gt;sumv:<br />
minv=sumv</p>
<p>totalCount=totalCount+1</p>
<p>def getTrilateration(position1, position2, position3): #Get Beacon Position<br />
x1=position1[0]
y1=position1[1]
r1=position1[2]
x2=position2[0]
y2=position2[1]
r2=position2[2]
x3=position3[0]
y3=position3[1]
r3=position3[2]
<p>S=(math.pow(x3,2.0)-math.pow(x2,2.0)+math.pow(y3,2.0)-math.pow(y2,2.0)+math.pow(r2,2.0)-math.pow(r3,2.0))/2.0<br />
T=(math.pow(x1,2.0)-math.pow(x2,2.0)+math.pow(y1,2.0)-math.pow(y2,2.0)+math.pow(r2,2.0)-math.pow(r1,2.0))/2.0</p>
<p>y=((T*(x2-x3))-(S*(x2-x1)))/(((y1-y2)*(x2-x3))-((y3-y2)*(x2-x1)))<br />
x=((y*(y1-y2))-T)/(x2-x1)</p>
<p>return x,y<br />
</div>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>#Initialization DataBase<br />
stack=[0 for i in range(5)]
top = -1<br />
</div>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>#Setting corner position<br />
corner=[("Enter", 75.1, 53.3),<br />
("Dressed meat", 0.0, 5.1), ("Vegetable", 0.0, 10.2), ("Seafood", 0.0, 15.3), ("Fruit", 15.7, 19.1),<br />
("Toy", 5.0, 5.5), ("Beverage", 5.0, 10.6), ("Home appliance", 28.7, 41.8), ("Kitchenware", 5.0, 20.8),<br />
("Bathroom", 10.0, 5.9), ("Snack", 10.0, 10.0), ("Instant noodles", 40.9, 38.3), ("Egg", 10.0, 20.2),<br />
("Diary products", 44.6, 24.6), ("Frozen food", 52.2, 59.6), ("Clothing", 15.0, 15.5), ("Shoes", 15.0, 20.6),<br />
("Tool", 20.0, 5.7), ("Electronics", 20.0, 10.8), ("Pet goods", 20.0, 15.9), ("Beer", 20.0, 20.0)]
mincorner=[]
mincorv=&#8221;"<br />
visited=[0 for i in range(5)]
minv=2147483647.0<br />
totalCount=0</p>
<p>try:<br />
sock = bluez.hci_open_dev(dev_id)<br />
print &#8220;ble thread started&#8221;<br />
except:<br />
print &#8220;error accessing bluetooth device&#8230;&#8221;</p>
<p>blescan.hci_le_set_scan_parameters(sock)<br />
blescan.hci_enable_le_scan(sock)</p>
<p>conn = pymysql.connect(host=&#8217;localhost&#8217;, user=&#8217;yang&#8217;, passwd=&#8217;1&#8242;, db=&#8217;goods&#8217;,charset=&#8217;utf8mb4&#8242;)<br />
cur = conn.cursor()<br />
DT = df({&#8216;Goods List&#8217;: [],&#8217;Number of&#8217;:[]});<br />
pd.options.display.float_format=&#8217;{:,.0f}&#8217;.format<br />
</div>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>#Initialization Socket<br />
PORT=8888<br />
s=socket.socket(socket.AF_INET, socket.SOCK_STREAM)<br />
distance_avg=[]
while True:<br />
returnedList = blescan.parse_events(sock, 10)<br />
print &#8220;Select the Mode(0:Short Path, 1:Scan barcode, Exit is any Number): &#8220;,<br />
mode=int(input())<br />
if mode==0:<br />
#print corner number<br />
print &#8220;1.Dressed meat 2.Vegetable 3.Seafood 4.Fruit&#8221;<br />
print &#8220;5.Toy 6.Beverage 7.Home appliances 8.Kitchenware&#8221;<br />
print &#8220;9.Bathroom 10.Snack 11.Instant noodles 12.Dairy product&#8221;<br />
print &#8220;13.Egg 14.Frozen food 15.Clothing 16.Shoes&#8221;<br />
print &#8220;17.Tool 18.Electronics 19.Pet goods 20.Beer&#8221;</p>
<p>print &#8220;\nSelec the Corner: &#8220;,<br />
num=(input()).split()<br />
flag=[0 for i in range(21)]
vis=[0 for i in range(len(num))]
<p>#print corner map<br />
print &#8220;=========&#8221;<br />
for j in range(0,len(num)):<br />
flag[int(num[j])]=1<br />
vis[j]=corner[int(num[j])]
<p>for i in range(1,21):<br />
if flag[i] == 1:<br />
print corner[i][0],<br />
for j in range(0,16-len(corner[i][0])):<br />
print &#8221; &#8220;,<br />
else:<br />
print &#8221; &#8220;,</p>
<p>if i%4==0 and i!=0:<br />
print &#8220;\n&#8221;</p>
<p>print &#8221; &#8220;,<br />
print corner[0][0]
print &#8220;========\n&#8221;<br />
for beacon in returnedList:<br />
if beacon[18:18+len(beacon3)]==beacon1:<br />
distance_avg.insert(count,(10**((float(beacon[61:64])-(float(beacon[65:])))/20.0))*100)<br />
count=count+1<br />
if count == 10:<br />
if median(distance_avg)&lt;1:<br />
position1[2]=median(distance_avg)<br />
count=0<br />
del distance_avg[:]
<p>if beacon[18:18+len(beacon3)]==beacon2:<br />
distance_avg.insert(count,(10**((float(beacon[61:64])-(float(beacon[65:])))/20.0))*100)<br />
count=count+1<br />
if count == 10:<br />
if median(distance_avg)&lt;1:<br />
position2[2]=median(distance_avg)<br />
count=0<br />
del distance_avg[:]
<p>if beacon[18:18+len(beacon3)]==beacon3:<br />
distance_avg.insert(count,(10**((float(beacon[61:64])-(float(beacon[65:])))/20.0))*100)<br />
count=count+1<br />
if count == 10:<br />
if median(distance_avg)&lt;1:<br />
position3[2]=median(distance_avg)<br />
count=0<br />
del distance_avg[:]
<p>if beacon[18:18+len(beacon3)]==beacon3 and beacon[18:18+len(beacon3)]==beacon2 and beacon[18:18+len(beacon3)]==beacon1:<br />
X,Y=getTrilateration(position1,position2,position3)<br />
#find current location<br />
for i in range(0,21):<br />
if abs(X-coner[i][1])&lt;1 and abs(Y-coner[i][2])&lt;1:<br />
myplace=i</p>
<p>#print short path<br />
TSP(i,vis,len(vis),0,0)<br />
print &#8220;Total Path Num: &#8220;,totalCount<br />
for i in range(0,len(mincorner)):<br />
if mincorner[i].find(str(minv)) != -1:<br />
n=i<br />
print &#8220;Shortest Path: &#8220;,mincorner[n]
print &#8220;\n&#8221;<br />
mincorner=["" for i in range(len(mincorner))]
minv=2147483647</p>
<p>elif mode==1:<br />
while True:<br />
print &#8220;Scan barcode(1:Delete, 2:Pay): &#8220;,<br />
goods_cnt=1<br />
scan_in,n=[input() for _ in range (2)]
scan_in.strip(&#8216;\n\n&#8217;)<br />
if scan_in is &#8216;q&#8217;:<br />
break<br />
elif scan_in is &#8217;1&#8242;:<br />
print &#8220;=======<br />
print(DT)<br />
num=int(input(&#8220;delete (-1:return):&#8221;))<br />
#while(num==)<br />
if num== -1:<br />
continue<br />
else:<br />
DT.drop(num,inplace=True)<br />
DT.reset_index(inplace=True)<br />
DT.drop(&#8216;index&#8217;, axis=1,inplace=True)<br />
print(&#8220;{0} delete&#8221;.format(num))<br />
print(DT)<br />
elif scan_in is &#8217;2&#8242;:<br />
A=[0 for i in range(len(DT))]
sumf=0<br />
ip=input(&#8220;Input IP of App: &#8220;)<br />
s.connect((ip,PORT)) #Connect App<br />
for i in range(0,len(DT)):<br />
A[i]=str(DT.iloc[i]).split(&#8216;,&#8217;)<br />
B=A[i][3].split(&#8216;Number of&#8217;) #The number of product<br />
C=(B[1].replace(&#8221; &#8220;,&#8221;")) #The price of product<br />
sumf+=int(A[i][2])*int(C[0])<br />
sumf=str(sumf)<br />
s.send(sumf.encode(&#8216;utf-8&#8242;)) #Total price<br />
s.close()<br />
break</p>
<p>else:<br />
sql=&#8221;SELECT * FROM list WHERE barcode LIKE %s&#8221;<br />
cur.execute(sql,scan_in)<br />
for row in cur:<br />
cp=str(row)<br />
empty=str(DT[DT['Goods List'].isin([cp])])<br />
if (empty.find(&#8220;Empty&#8221;) is not 0):<br />
i=DT[DT['Goods List'].isin([cp])].index<br />
num=DT[DT['Goods List']==cp]['Number of'].tolist()<br />
num=DT.loc[i,['Number of']]=(num[0]+1)<br />
else:<br />
new_data={&#8216;Goods List&#8217;:cp, &#8216;Number of&#8217;:goods_cnt}<br />
DT=DT.append(new_data, ignore_index=True)<br />
text=str(new_data).split(&#8216;,&#8217;)<br />
text=text[3].replace(&#8216;)&#8221;&#8216;,&#8221;")<br />
os.system(&#8216;echo Event is %s | festival &#8211;tts&#8217; %text)<br />
print(DT)<br />
else:<br />
break</p>
<p>cur.close()<br />
conn.close()<br />
</div>
<p><span style="color: #ff6600"><strong>5. 사용한 제품목록</strong></span></p>
<table style="width: 620px" border="1" cellspacing="0" cellpadding="0">
<tbody>
<tr>
<td style="text-align: center">제품명</td>
<td style="text-align: center">디바 상품번호</td>
</tr>
<tr>
<td style="text-align: center">블루이노2 키트보드 (BI-200(K))</td>
<td style="text-align: center">1287076</td>
</tr>
<tr>
<td style="text-align: center">microSD Cards &#8211; TS16GUSDC10M [16GB]</td>
<td style="text-align: center">12139535</td>
</tr>
<tr>
<td style="text-align: center">[RASPBERRY-PI] 라즈베리파이 3 Model B+</td>
<td style="text-align: center">1377518</td>
</tr>
<tr>
<td style="text-align: center">[(주)블루이노] 블루이노2 (Blueinno) 다운로드 툴</td>
<td style="text-align: center">1272986</td>
</tr>
<tr>
<td style="text-align: center">아두이노 라즈베리파이 바코드 스캐너 모듈<br />
V3.0 USB to UART 인터페이싱 지원</td>
<td style="text-align: center">-</td>
</tr>
<tr>
<td style="text-align: center">스피커</td>
<td style="text-align: center">-</td>
</tr>
<tr>
<td style="text-align: center">RF 모듈</td>
<td style="text-align: center">-</td>
</tr>
</tbody>
</table>
<p><strong style="color: #ff6600">6. 기타</strong></p>
<p><span style="color: #3366ff"><strong>6.1 기능블록도</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-40.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41107" alt="68 ict_ 스마트쇼핑카트 (40)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-40.png" width="582" height="276" /></a><br />
<span style="color: #3366ff"> <strong>6.2 목표 달성 현황</strong></span><br />
<strong>장바구니</strong><br />
목표: 바코드 스캔을 통해 장바구니 목록에 넣을 수 있고, 삭제와 추가의 기능도 구현<br />
달성: 바코드 스캔을 통한 물품 목록 추가와 삭제를 할 수 있음.</p>
<p><strong>최단거리</strong><br />
목표: 실내 측위 정보로 현재 위치로부터 최단거리 계산<br />
달성: 현재 위치로부터 최단거리를 계산할 수 있음.</p>
<p><strong>위치측량</strong><br />
목표: 현재 위치를 작은 오차로 받아오도록 구현<br />
달성: 블루투스 비콘에서 RF 비콘으로 변경하여 측정 반경 거리를 넓혀 사용성을 확대함. 약간의 오차는 개선방법을 추후 적용할 예정.</p>
<p><strong>인터페이스</strong><br />
목표: 작성한 GUI틀과 프로그램 연동<br />
달성: 코너의 위치 정보와 최단경로, 상품목록 등을 볼 수 있도록 구현하였음, 사용자 친화적인 인터페이스 화면 디자인 완성. 추후 프로그램과 GUI를 연동할 예정.</p>
<p><strong>결제 앱</strong><br />
목표: 장바구니 목록에 있는 상품을 앱으로 결제 가능하도록 구현<br />
달성: 장바구니 목록을 구성할 수 있고 결제가 가능함.</p>
<p><span style="color: #3366ff"><strong>6.3 시연영상 주소</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-41.png" rel="lightbox[40955]"><img class="alignnone size-full wp-image-41108" alt="68 ict_ 스마트쇼핑카트 (41)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ict_-스마트쇼핑카트-41.png" width="590" height="313" /></a></p>
<p><span style="color: #3366ff"><strong>6.4 참고문헌</strong></span><br />
· https://gongdae58.tistory.com/73<br />
· https://ko.wikipedia.org/wiki/%EC%82%BC%EB%B3%80%EC%B8%A1%EB%9F%89<br />
· https://codeanalysis.tistory.com/2<br />
· https://m.blog.naver.com/wlsdml1103/221159758141<br />
· https://m.blog.naver.com/PostView.nhn?blogId=dsz08082&amp;logNo=221852345347&amp;proxyReferer=https:%2F%2Fwww.google.com%2F<br />
· http://pythonstudy.xyz/python/article/408-pandas-%EB%8D%B0 %EC%9D%B4%ED%83%80-%EB%B6%84%EC%84%9D</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.ntrexgo.com/archives/40955/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>[68호]간호사의 업무 부담을 줄여주는 EMR연동 vital sign계측 시스템</title>
		<link>http://www.ntrexgo.com/archives/40948</link>
		<comments>http://www.ntrexgo.com/archives/40948#comments</comments>
		<pubDate>Mon, 25 Oct 2021 00:00:23 +0000</pubDate>
		<dc:creator>디바이스마트 매거진</dc:creator>
				<category><![CDATA[디바이스마트 매거진]]></category>
		<category><![CDATA[특집]]></category>
		<category><![CDATA[ict]]></category>
		<category><![CDATA[ict공모전]]></category>
		<category><![CDATA[공모전]]></category>
		<category><![CDATA[디바이스마트]]></category>
		<category><![CDATA[매거진]]></category>
		<category><![CDATA[수상작]]></category>
		<category><![CDATA[융합]]></category>
		<category><![CDATA[프로젝트]]></category>

		<guid isPermaLink="false">http://www.ntrexgo.com/?p=40948</guid>
		<description><![CDATA[디바이스마트매거진 68호 &#124; 혈압계와 체온계를 하나의 패키지로 구성하여 사용자 경험을 고려한 디자인을 채택하였고 RFID태그 및 무선 통신기술을 활용하여 EMR 자동 기입 시스템을 구현하였다. ]]></description>
				<content:encoded><![CDATA[<p><strong><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-1.png" rel="lightbox[40948]"><img class="alignnone size-large wp-image-41002" alt="68 ICT_간호사연동 (1)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-1-620x203.png" width="620" height="203" /></a></strong></p>
<p><span style="background-color: #ffffff"><strong>2021 ICT 융합 프로젝트 공모전 우수상</strong></span></p>
<p><span style="font-size: x-large"><strong>간호사의 업무 부담을 줄여주는 </strong></span></p>
<p style="text-align: left"><span style="font-size: x-large"><strong>EMR연동 vital sign계측 시스템</strong></span></p>
<p style="text-align: right">글 | 건양대학교 장건호, 이지훈</p>
<p style="text-align: right">
<p><span style="color: #ff6600"><strong>1. 심사평</strong></span><br />
<strong>칩센</strong> 최근 의료업계 또한 ICT 장비나 시스템 도입이 매우 늘어나고 있고, 개발자가 작품의 기획 중에 고민한 회진을 통한 활력 징후 체크를 대체하기 위한 시스템이 대표적으로 가장 먼저, 그리고 많은 곳에서 검토되고 있는 것으로 알고 있습니다. 의료기 자체의 휴대성 및 전기적 장비로의 변경은 많은 부분에서 이루어진 것으로 생각되고, 그 장비 등에 개발자가 구성한 시스템이나, 솔루션을 적용하면 의료진의 업무가 훨씬 더 효율적이고, 환자의 입장에서도 빠르고 정확한 이상 징후 전달이 가능할 것으로 보입니다. 제품 제작에도 많은 공을 들인 것으로 보이는데, 실제 시연 영상 등이 있었다면 어땠을까 하는 아쉬움이 남습니다.</p>
<p><strong>펌테크</strong> 세심한 관찰력이 반영된 실생활과 밀접한 아이디어와 실용성이 우수한 작품이라고 생각합니다. 혈압계에 온도계 기능 부가 구성은 신선했고, 기획의도에 맞게 전체 시스템을 안정적, 효율적으로 구성했으며 완성도 높게 구현하였다고 판단이 되며 전체적으로 기획의도, 기술구현도, 완성도 등에서 우수한 작품으로 판단되며 제출된 문서를 종합적으로 검토해 볼 때 최종 완성은 되진 않은 것을 판단되나 추후 보완을 통해 완성도 높게 구현된다면 상업적으로도 손색이 없는 우수한 작품이 되리라 생각됩니다.</p>
<p><strong>위드로봇</strong> 전체 완성도가 높은 작품입니다. 목표와 결과가 일치하는 잘 진행된 작품으로 보입니다.<br />
<strong>뉴티씨</strong> 매우 실용적인 작품으로 생각되며, 실제로 격무에 시달리는 간호사들의 업무를 줄여줄 수 있을 것으로 생각합니다. 좀 더 콤팩트하게 제작하면 무겁지 않아서 좋을 것 같고, 표시기와 네트웍은 스마트폰에서 제공해도 될 것 같으므로, 같은 아이디어로 센서부만 제작하여 통신으로 데이터를 날려주고, 스마트폰에서 데이터들을 가공 처리한 후, LCD로 표시하여주면 더 가볍고 좋을 것 같습니다. 좀 더 고민하여서, 완성도를 높인다면 사업으로 연결할 수도 있을 것 같습니다.</p>
<p><span style="color: #ff6600"><strong>2. 작품 개요</strong></span><br />
현재 간호사는 정해진 시간마다 환자의 활력징후(인간의 생명 활력도를 추정할 수 있는 가장 기본적인 생체징후)를 측정합니다. 이는 간호사의 기본 업무 중 하나로써 상당한 시간을 할애하는 것으로 알려져 있습니다. 중증환자가 아닌 일반 환자의 경우 일일이 간호사가 직접 회진을 돌며 측정해야 하는데 이때 개별의 장비를 사용하고 차트에 수기작성을 하는 등 전통적인 방식을 사용하고 있습니다. 측정 장비의 단순화와 자동화로 관리효율을 증대시키며 잘못된 기입을 방지하고 의료진의 업무효율 증대가 해당 작품의 목적입니다.<br />
따라서 혈압계와 체온계를 하나의 패키지로 구성하여 사용자 경험을 고려한 디자인을 채택하였고 RFID태그 및 무선 통신기술을 활용하여 EMR(환자에 관련된 정보를 전산화 한 것) 자동 기입 시스템을 구현했습니다.</p>
<p><span style="color: #ff6600"><strong>3. 작품 설명</strong></span><br />
최근 병원들은 ‘환자 중심’이라는 키워드에 맞춰 변화하고 있는데 이는 간호사의 서비스 영역까지 포함하고 있습니다. 따라서 현재 간호사의 본래 많은 업무와 더불어 부가적인 서비스까지 요구되고 있어 간호사의 업무 스트레스가 가중되고 있는 상황입니다. IoT 활력징후 시스템을 도입할 경우 활력징후를 측정, 수기로 작성, DB에 입력 등 일련의 과정을 간결화 하여 업무능률을 탄력적으로 높일 수 있습니다. 간호사의 휴게시간 보장 및 업무 만족도 향상 등을 기대하며 결과적으로 환자에게 더 많은 시간을 할애 하는 잠재적인 효과도 예상 할 수 있습니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-2.png" rel="lightbox[40948]"><img class="alignnone size-large wp-image-41004" alt="68 ICT_간호사연동 (2)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-2-539x620.png" width="539" height="620" /></a></p>
<p><span style="color: #ff6600"><strong>4. 주요 동작 및 특징</strong></span><br />
<span style="color: #33cccc"><strong>4.1. 주요 특징</strong></span><br />
<strong>체온계</strong><br />
1. 체온계를 혈압계에 dock 방식으로 결합하여 휴대성을 강조한 구성<br />
2. 비접촉식 적외선 체온 측정 방식<br />
3. RFID Reader 로 환자 개별 식별 가능<br />
4. 충전 형 배터리 사용<br />
5. Dock 거치 시에는 혈압계로부터 전원을 공급받아 충전하고 분리 시 자동 부팅 후 블루투스 페어링 기능</p>
<p><strong>혈압계</strong><br />
1. 오실로 메트릭 법 혈압 측정 방식<br />
2. 5인치 터치스크린을 활용하여 측정 값 및 환자 정보 표시<br />
3. 충전형 배터리 사용<br />
4. 와이 파이를 이용하여 웹 데이터베이스에 접근, 체온계로부터 받은 RFID값으로 환자 정보를 불러오고 활력징후 측정값을 저장</p>
<p><strong>동작 프로세스</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-3.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41006" alt="68 ICT_간호사연동 (3)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-3.png" width="620" height="322" /></a></p>
<p><span style="color: #ff6600"><strong>5. 전체 시스템 구성</strong></span><br />
<strong>하드웨어</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-4.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41007" alt="68 ICT_간호사연동 (4)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-4.png" width="620" height="383" /></a><br />
<strong> 소프트웨어</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-5.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41008" alt="68 ICT_간호사연동 (5)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-5.png" width="620" height="303" /></a> <a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-6.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41009" alt="68 ICT_간호사연동 (6)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-6.png" width="620" height="772" /></a><br />
<strong> 그래픽 유저 인터페이스</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-7.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41010" alt="68 ICT_간호사연동 (7)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-7.png" width="620" height="387" /></a></p>
<p><span style="color: #ff6600"><strong>6. 개발환경</strong></span><br />
<strong>체온계</strong><br />
1. MCU : Arduino Nano<br />
2. 언어 : C Language<br />
3. 사용 모듈 : 적외선체온센서, RFID리더, OLED, 블루투스 모듈</p>
<p><strong>혈압계</strong><br />
1. MCU : Raspberry Pi4<br />
2. OS : Raspbian (linux)<br />
3. 언어 : Python Language<br />
4. 사용 모듈 : 혈압계, 5인치 터치 디스플레이</p>
<p><strong>GUI</strong><br />
1. 개발 툴 : pyqt5<br />
2. 언어 : Python Language</p>
<p><strong>3D모델 외부 케이싱</strong><br />
1. 설계 : SolidWorks 2017<br />
2. 슬라이싱 : CURA, simplify<br />
3. 3D프린터 : Anet a8, moment<br />
4. 출력방식 : FDM<br />
5. 사용재료 : PLA</p>
<p><strong>백엔드</strong><br />
1. DB : Firebase<br />
2. 서버 : Flask<br />
3. 웹 : Jinja2<br />
4. 언어 : Python</p>
<p><strong>통합개발환경</strong><br />
1. 체온계, 혈압계 일부: Sublime Text 3<br />
2. 혈압계, 웹 : Visual studio Code</p>
<p><span style="color: #ff6600"><strong>7. 단계별 제작 과정</strong></span><br />
<span style="color: #33cccc"><strong>7.1. 체온계 제작</strong></span><br />
체온계 제작에 있어서 가장 중요했던 부분은 전원부입니다. 전원을 상시 켜둘 이유가 없으며 이는 충전을 방해하는 요인이기 때문에 충전 시에는 체온계의 전원을 꺼두고 충전 Dock에서 분리 시에 자동으로 전원이 켜지며 부팅이 완료되는 기능을 구현하고자 하였습니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-8.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41011" alt="68 ICT_간호사연동 (8)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-8.png" width="269" height="315" /></a><br />
트랜지스터의 디지털 스위치 기능을 활용해서 충전전압을 입력 신호로 판단하였습니다.<br />
하지만 당시에는 쉽게 구할 수 있는 NPN 트랜지스터로 제작을 하였기 때문에 단순한 구조로는 원하는 기능을 구현할 수 없었습니다. NPN TR은 베이스에 양 전압을 가하면 콜렉터에서 이미터로 전류가 흐르게 됩니다. 이때 베이스에 입력되는 전압이 충전 전압이라고 가정할 때 우리는 콜렉터에서 이미터로 전류가 흐르는 것이 아닌 차단되어야 합니다. 반대로 베이스 전압을 제거 했을 때 전류가 흘러야 합니다. 따라서 베이스를 컨트롤하는 TR 스위치를 하나 더 추가하여 이중 TR 스위치를 만들었습니다.<br />
구체적인 전체 회로는 원고 하단에 첨부합니다. 그 중 디지털 스위치의 구조만 확대한 내용은 다음과 같습니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-9.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41012" alt="68 ICT_간호사연동 (9)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-9.png" width="608" height="329" /></a></p>
<p>Tr1이 1차 스위치 Tr2가 2차 스위치입니다. 1차 스위치에는 늘 항상 5V의 전압이 인가되고 있습니다. (배터리 전압) 하지만 2차 스위치에서 충전 전압이 인가 될 때 1차 스위치에 인가되던 배터리 전압은 GND로 흐르게 되어 전압이 낮아집니다. 결과적으로 1차 스위치는 개방되는 것입니다.<br />
따라서 충전 중에는 2차 스위치에 전압이 인가되어 1차 스위치는 개방 되고 충전을 그만 두었을 때는 2차 스위치가 개방되어 1차 스위치는 배터리 전압에 의해 단락됩니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-10.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41013" alt="68 ICT_간호사연동 (10)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-10.png" width="352" height="527" /></a></p>
<p>체온계의 핵심 기능은 다음과 같습니다.<br />
1. RFID 리딩 후 블루투스 전송<br />
2. 온도 센서 측정 후 블루투스 전송<br />
3. 위 1,2번이 작동할 시 진동을 발생 할 것<br />
4. 모든 진행 상황을 OLED에 비주얼라이징 할 것</p>
<p><strong>사용 모듈</strong><br />
1. 진동 모듈<br />
2. OLED<br />
3. RFID 리더<br />
4. 비접촉 적외선 온도 센서<br />
5. 블루투스 HC-05<br />
6. 충전 모듈</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-11.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41014" alt="68 ICT_간호사연동 (11)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-11.png" width="620" height="286" /></a></p>
<p><span style="color: #33cccc"><strong>7.2. 체온계 코드</strong></span><br />
<span style="color: #00ccff"><strong> 7.2.1. 진동 발생</strong></span><br />
진동 모듈은 핀 번호를 지정한 후 특정한 패턴으로 작동하게끔 미리 함수로 써 만들어 줍니다. 이 후 필요한 순간마다 함수를 호출 하는 방식으로 진동을 발생 시켜 햅틱 기능으로서 사용자에게 정보를 전달합니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-12.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41015" alt="68 ICT_간호사연동 (12)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-12.png" width="243" height="384" /></a></p>
<p><span style="color: #00ccff"><strong>7.2.2. OLED 표시</strong></span><br />
Oled 역시 디스플레이의 역할로서 늘 갱신되어야 합니다. 따라서 Oled를 리뉴얼하는 코드를 함수로 따로 만들어둔 다음 체온 측정 후, RFID 카드를 읽었을 때, 전원이 켜졌을 때, 등등 필요 시 호출 하는 방식으로 표시합니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-13.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41016" alt="68 ICT_간호사연동 (13)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-13.png" width="620" height="268" /></a><br />
전역 변수를 사용하여 체온 값과 RFID아이디를 갱신 합니다. 밋밋한 화면을 좀 더 알차게 구성하기 위해 이미지를 삽입하였습니다. 이미지는 흑백 이미지로 알맞은 크기로 제작 한 뒤 비트맵 단위로 변환하여 줍니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-14.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41017" alt="68 ICT_간호사연동 (14)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-14.png" width="620" height="177" /></a><br />
헥사 코드로 변환된 이미지를 u8g 라이브러리에 포함된 bitmap draw 기능을 활용하여 화면에 그려줍니다. 이미지를 bitmap으로 변환하는 과정과 기능은 http://en.radzio.dxp.pl/bitmap_converter/ 해당 사이트를 참고하였습니다.</p>
<p><span style="color: #00ccff"><strong>7.2.3. RFID 리더</strong></span><br />
MFRC522 모듈을 사용하는 라이브러리의 예제를 수정하여 사용합니다. RFID 카드에는 여러 가지 정보가 담겨 있으며 그 정보를 읽고 쓰기가 가능합니다. 하지만 실질적인 데이터의 저장은 카드에 담는 것이 아니라 온라인 데이터베이스를 사용할 것입니다. 따라서 RFID의 고유한 ID만 사용합니다. 고유 ID를 주소처럼 사용하여 DB에 접근하고 저장합니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-15.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41018" alt="68 ICT_간호사연동 (15)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-15.png" width="620" height="253" /></a></p>
<p>ReadNUID예제를 실행 한 후 카드를 읽힌 결과입니다. 여기서 우리는 hex값을 사용하도록 합니다. ID로 사용하기에 dec보다는 짧기 때문입니다. 결과 값을 곧이곧대로 사용하기에는 깔끔하지 않음으로 예제를 적당히 수정하여 핵심만 추려 냅니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-16.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41019" alt="68 ICT_간호사연동 (16)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-16.png" width="620" height="742" /></a></p>
<p>앞선 그림 [카드의 용량과 id 값이 표시 됨]과 비교했을 때 hex값만 출력이 되며 16진수 한자리를 구별하는 띄어쓰기도 사라졌습니다. 우리는 hex값을 일일이 해석하려는 것이 아닌 하나의 ID로써 문자열을 사용할 것이기 때문에 위와 같이 수정하였습니다.</p>
<p><span style="color: #00ccff"><strong>7.2.4. 비접촉 적외선 온도 센서</strong></span><br />
Adafruit_MLX90614라이브러리를 사용합니다. 섭씨온도 중 Object온도를 사용합니다. I2C통신을 사용하며 라이브러리 내장 함수를 사용하기 때문에 비교적 간단합니다. 하지만 사용하는 방식에 있어서 문제가 발생합니다. 먼저 온도를 언제 측정할지 시점을 지정할 방법이 필요합니다. 분명하게 신체를 가리키지 않았지만 온도를 측정하게 된다면 그 것은 잘못된 측정입니다. 두 번째로 센서의 민감도에 따라서 보정이 필요합니다. 경우에 따라 한 번의 측정으로는 정확한 값을 얻을 수 없습니다. 따라서 우리는 버튼이라는 물리적인 장치를 통해 외부에서 신호를 보내며 동시에 3초간 측정한 값의 평균으로 온도를 측정합니다.<br />
기본적인 구조는 택트 버튼을 인터럽트 핀을 사용하여 부착하고 버튼이 눌렸을 때 3초에 걸쳐서 온도를 측정합니다. 3번의 측정값이 20도 이상이며 1의 자리가 모두 동일한 경우 평균을 내어 측정을 완료합니다. 해당 조건은 오류를 잡아내고 보다 정확한 측정을 위한 경험적 결과입니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-17.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41020" alt="68 ICT_간호사연동 (17)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-17.png" width="620" height="277" /></a> <a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-18.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41021" alt="68 ICT_간호사연동 (18)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-18.png" width="620" height="309" /></a><br />
타임 인터럽트는 1초마다 count값을 더해줍니다. count에 따라 온도 측정값을 배열에 넣고 그 값을 판단하는 구조입니다. 조건에 부합하면 타임 인터럽트는 종료됩니다. 이 것을 반복합니다.</p>
<p><span style="color: #00ccff"><strong>7.2.5. 블루투스 전송 &#8211; 통신 프로토콜</strong></span><br />
앞서 RFID ID 리더와 온도 측정을 구현하였습니다. 또한 이를 Oled에 표시하기도 하였습니다. 측정값을 Dock(혈압계)에 전송을 해야 합니다. 이때의 통신 방법은 블루투스를 사용하며 모듈은 HC-05를 사용합니다. AT-mode를 통해 미리 사용할 블루투스의 주소를 알아내고 비밀번호와 이름을 설정합니다.<br />
Dock과 통신하는 프로토콜은 string to string을 이용합니다. 센서의 종류와 측정값을 한 string 문자열에 첨부하여 전송하는 방식입니다. ID값은 “BC”, 체온은 “BT”라고 약속합니다. 또한 정보의 구분 또한 특정한 문자를 지정하여 한번 전송한 데이터의 끝을 표시해 줍니다. 사용한 문자는 “Z”입니다.<br />
예컨대 체온을 전송할 땐 “BT36.5Z”의 형식을 맞추어 혈압계로 전송됩니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-19.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41022" alt="68 ICT_간호사연동 (19)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-19.png" width="313" height="306" /></a></p>
<p><span style="color: #33cccc"><strong>7.3. 체온계 케이싱</strong></span><br />
<span style="color: #00ccff"><strong> 7.3.1. 3D 모델링</strong></span><br />
사용할 모듈을 버니어캘리퍼스로 실측을 합니다. 실측한 값을 토대로 solidwork에서 part를 만들어 줍니다. 만든 part를 assembly를 통해서 적절히 배치를 하고 케이스 모델링을 진행합니다. 이 때 3D프린터로 출력할 것을 고려하여 설계 합니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-20.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41023" alt="68 ICT_간호사연동 (20)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-20.png" width="620" height="285" /></a></p>
<p><span style="color: #00ccff"><strong>7.3.2. 3D프린터 출력</strong></span><br />
설계한 모델링을 슬라이싱을 통해 G-code로 변환한 후 3D프린터로 출력합니다. FDM 방식의 프린터기를 사용했으며 재료는 PLA 흰색입니다.</p>
<p><span style="color: #00ccff"><strong>7.3.3. 후가공</strong></span><br />
FDM 방식의 출력물은 특유의 단층이 존재하게 됩니다. 작품에는 아무런 영향을 끼치지 않지만 완성도를 위해 후가공을 진행하였습니다. 후처리 방법은 사포로 표면을 갉아 내고 퍼티를 발라 틈새를 매우고 다시 사포로 갉아내는 방법을 지속해서 반복합니다. 이 후 흰색 락카를 도포하여 마무리합니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-1.jpg" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41001" alt="68 ICT_간호사연동 (1)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-1.jpg" width="620" height="285" /></a></p>
<p><span style="color: #00ccff"><strong>7.3.4. 조립</strong></span><br />
완성된 케이스 내부에 납땜한 회로와 기타 모듈들을 배치하여 조립을 완성합니다. 그 다음 정상적으로 작동하는지 확인 합니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-3.jpg" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41005" alt="68 ICT_간호사연동 (3)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-3.jpg" width="620" height="282" /></a></p>
<p><span style="color: #33cccc"><strong>7.4. 혈압계 제작</strong></span><br />
Dock은 혈압계 자체의 기능을 수행하면서 동시에 체온계와 DB를 이어주는 중간 매개체에 해당됩니다. 따라서 수신 받은 RFID ID 값과 체온 측정 값, 혈압 값을 적절하게 처리하여 디스플레이에 표시하고 firebace 데이터베이스에 저장하는 역할을 수행합니다.</p>
<p><strong>혈압계의 핵심 기능은 다음과 같습니다.</strong><br />
1. 그래픽 인터페이스를 사용할 것<br />
2. 체온계를 거치할 수 있는 구조일 것<br />
3. 블루투스, 와이파이 통신할 것<br />
4. firebase DB를 이용할 것</p>
<p><strong>사용 모듈</strong><br />
1. 5인치 터치 디스플레이<br />
2. 라즈베리파이3<br />
3. 혈압계</p>
<p><span style="color: #33cccc"><strong>7.5. 혈압계 코드</strong></span><br />
그래픽 유저 인터페이스를 제작합니다. 측정값과 환자 정보를 표시하기 위함으로 직관적이고 깔끔한 디자인을 선택합니다. UI는 파이썬언어 기반의 툴킷인 pyqt5를 사용합니다. 또한 pyqt5를 보다 쉽게 사용할 수 있도록 제작된 응용프로그램인 qtDesigner를 사용하여 드롭앤 드랍 방식으로 UI를 제작합니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-21.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41024" alt="68 ICT_간호사연동 (21)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-21.png" width="620" height="442" /></a><br />
완성된 gui는 저장 시 .ui 파일로 만들어집니다. 파이썬 프로그램 안에서 작동시키기 위해선 .py파일로 바꿔줄 필요가 있습니다. 변환 방법은 pyqt5 툴킷에서 제공된 변환기를 사용합니다.</p>
<p><strong>UI 파일을 파이썬 파일로 변환</strong><br />
-&gt; pyuic5 -x hello.ui -o hello.py</p>
<p><strong>qrc 리소스 파일을 파이썬 파일로 변환</strong><br />
-&gt; pyrcc5 hello_image.qrc -o hello_image_rc.py</p>
<p>이때 ui파일 뿐만 아니라 qrc파일도 .py파일로 변환해야 합니다. qrc 파일은 UI를 만들 때 사용했던 이미지가 저장된 파일입니다. 변환된 .py파일을 열어 보면 pyqt5문법을 활용해서 UI 코드가 변환되어 있습니다. 메인 코드에서 사용할 땐 import하여 불러옵니다.</p>
<p><span style="color: #00ccff"><strong>7.5.1. GUI 작동 구조</strong></span><br />
절차적 프로그래밍과 다르게 GUI를 사용하는 환경에서는 GUI 따로 연산처리 따로 실행하는 쓰레드를 활용해서 프로그래밍 해야 합니다. GUI에 독립성을 부여해야 화면이 멈추지 않으며, 어떤 상황에서도 화면을 조작할 수가 있습니다. GUI 쓰레드를 기본적으로 동작하면서 필요시에 이벤트를 발생시킵니다. 이벤트 발생 시 GUI를 업데이트하는 함수만을 실행시켜서 화면을 수정하면 보는 이로 하여금 자연스러운 모니터링이 가능합니다.<br />
이 후 부가적인 처리는 블루투스 통신과 GPIO를 이용한 혈압계 작동 파트입니다. 역시나 각각 개별로 쓰레드를 만들어서 작동시키고 화면을 갱신하는 방식으로 구현합니다.</p>
<p><span style="color: #00ccff"><strong>7.5.2. 블루투스 소켓 통신</strong></span><br />
블루투스 통신을 위해 라즈베리파이에 제공되는 Bluetooth 라이브러리를 활용합니다. 기본적으로 소켓 통신을 기반으로 작성되었습니다. 매번 새로운 장치를 찾을 필요가 없기 때문에 사전에 알아두었던 체온계 블루투스 모듈의 주소 값을 지정합니다. 앞서 블루투스 통신 프로토콜에서 언급한 내용대로 전송 문자열의 앞의 문자는 정보의 종류를 뜻하며 맨 뒤 문자는 정보의 끝을 의미합니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-23.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41026" alt="68 ICT_간호사연동 (23)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-23.png" width="620" height="380" /></a></p>
<p>아두이노와 통신 중에 모종의 이유로 데이터 중간에 개행 문자가 섞여서 전송되는 현상이 있었습니다. 수신된 문자열을 처리하기에 굉장히 까다롭기 때문에 “Z”문자를 한 개의 데이터를 구분하는 지점으로 지정하였습니다. 개행 문자를 기준으로 문자열을 나누지 않고 지정문자를 받을 때까지 모든 수신된 데이터를 차곡차곡 하나의 변수에 저장하였습니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-24.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41027" alt="68 ICT_간호사연동 (24)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-24.png" width="620" height="268" /></a></p>
<p>이 후 통신 프로토콜에 따라서 수신된 데이터의 종류를 구분하고 실제 데이터만 추출하여 적재적소에 사용합니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-25.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41028" alt="68 ICT_간호사연동 (25)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-25.png" width="620" height="262" /></a></p>
<p>온도와 RFID ID로 구분함. 또한 데이터를 추출한다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-26.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41029" alt="68 ICT_간호사연동 (26)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-26.png" width="620" height="452" /></a></p>
<p><span style="color: #00ccff"><strong>7.5.3. DB 연동</strong></span><br />
환자정보 및 측정값은 내부저장소가 아닌 외부 클라우드 저장소를 사용합니다. 무료로 리얼타임 저장소를 서비스하는 firebase를 이용합니다. 저장소는 key와 val로 구성되어 있으며 초기화하는 방법과 데이터를 읽고 쓰는 방법은 관련 라이브러리인 pyrebase의 내장 함수를 참고합니다. 이는 git hub에서 찾을 수 있으며 데이터의 구성은 다음과 같습니다. 가장 상위 key는 RFID ID이며 아래에 이름, 성별, 나이 등 정보가 담겨 있습니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-27.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41030" alt="68 ICT_간호사연동 (27)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-27.png" width="232" height="330" /></a></p>
<p>위 정보는 사전에 이미 기입되어 있습니다. 체온계에 RFID 카드를 태그하면 ID 값이 혈압계로 전송되고 이는 다시 firebase에 접근하여 관련 정보가 있는지 확인합니다. DB에 존재하는 id 값이라면 해당 환자 정보를 다시 혈압계로 전송하여 모니터에 표시합니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-28.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41031" alt="68 ICT_간호사연동 (28)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-28.png" width="620" height="456" /></a></p>
<p><span style="color: #00ccff"><strong>7.5.4. DB 자동 저장</strong></span><br />
사용자 경험을 고려하여 동작 순서에 따라 자동으로 측정값이 저장되도록 하였습니다. 모든 절차의 접근 key는 RFID카드의 ID를 사용합니다. 먼저 A 카드를 태그한 이후에는 몇 번이고 다시 측정할 수 있습니다. 체온계로부터 체온을 측정하고 혈압계는 라즈베리파이의 GPIO 기능을 사용하여 모터와 센서를 제어합니다. 혈압계 측정은 GUI화면의 버튼을 눌러 동작합니다. 측정이 끝난 후 B 카드를 태그하면 A를 측정했던 값이 자동으로 DB에 저장되는 방식입니다. 따라서 사용자는 자연스럽게 환자별로 인식표 태그 후 측정 순으로 진행하면 별다른 조작 없이 자동 저장되는 시스템을 설계하였습니다. 측정값은 날짜별로 묶고 다시 시간별로 묶어서 저장합니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-29.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41032" alt="68 ICT_간호사연동 (29)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-29.png" width="280" height="413" /></a></p>
<p>&nbsp;</p>
<p><span style="color: #33cccc"><strong>7.6. 혈압계 케이싱</strong></span><br />
<span style="color: #00ccff"><strong>7.6.1. 3D모델링</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-30.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41033" alt="68 ICT_간호사연동 (30)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-30.png" width="620" height="288" /></a></p>
<p>5인치 디스플레이와 라즈베리파이를 고정하기 위해 적절히 배치하고 지지대를 세워 안정적으로 조립할 수 있도록 설계하였습니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-31.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41034" alt="68 ICT_간호사연동 (31)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-31.png" width="620" height="328" /></a></p>
<p>또한 우측에 Dock을 배치하여 체온계를 거치하고 또한 중앙에 충전 단자를 위한 구멍을 내어 체온계를 단단히 고정함과 동시에 충전기능을 구현하였습니다.</p>
<p><span style="color: #00ccff"><strong>7.6.2. 3D Printer 출력</strong></span><br />
설계한 모델링을 슬라이싱을 통해 G-code로 변환한 후 3D프린터로 출력합니다. FDM 방식의 프린터기를 사용했으며 재료는 PLA 흰색입니다. 크기와 구조 때문에 한 번에 모든 파트를 출력하는 것은 불가능하였습니다. 따라서 몸체, 덮개, 손잡이, 거치대, Dock으로 나누어서 출력 후 이어 붙이는 방식으로 제작하였습니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-32.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41035" alt="68 ICT_간호사연동 (32)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-32.png" width="620" height="316" /></a></p>
<p><span style="color: #00ccff"><strong>7.6.3. 후가공</strong></span><br />
후가공은 체온계 과정과 동일하게 퍼티와 락카 스프레이를 이용하여 표면 처리를 하였습니다.</p>
<p><span style="color: #00ccff"><strong>7.6.4. 조립</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-33.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41036" alt="68 ICT_간호사연동 (33)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-33.png" width="617" height="322" /></a></p>
<p>체온계, 혈압계 프로그래밍 및 케이스 제작, 조립까지 마무리하였습니다. 혈압계의 디스플레이에 여러 가지 정보가 표시되며 터치를 통해 혈압계를 동작하거나 프로그램을 reboot할 수 있습니다. DB를 이용하여 정보를 불러오기는 물론 측정값을 저장할 수도 있습니다. 하지만 key와 val로 이루어진 DB그 자체로 정보를 열람하거나 처리하는 것은 상당히 불편합니다. 따라서 웹을 통해 DB에 저장된 정보를 보기 좋기 표시하는 벡엔드 파트를 구현하여 본 프로젝트를 마무리합니다.</p>
<p><span style="color: #33cccc"><strong>7.7. 웹 모니터링 시스템</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-34.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41037" alt="68 ICT_간호사연동 (34)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-34.png" width="328" height="152" /></a></p>
<p>웹 모니터링을 위해서 플라스크(Flask)를 사용합니다. 플라스크(Flask)는 파이썬 웹 어플리케이션을 만드는 프레임 워크이며, Werkzeug 툴킷과 Jinja2템플릿 엔진에 기반을 둡니다. 플라스크는 프레임워크들 중에서 매우 심플하고 가볍지 만 중요하고 핵심적인 내용과 기능을 갖고 있기에 많이 사용되고 있습니다. 이 Flask를 통해 각 환자의 이름과 데이터를 구분하여 하나의 웹에 표기할 수 있도록 만듭니다.</p>
<p><span style="color: #00ccff"><strong>7.7.1. DB에 저장된 데이터 불러오기</strong></span><br />
웹을 통해서 데이터를 띄우기 전 DB에서 데이터를 불러오는 작업을 수행합니다. 이렇게 DB에 환자의 RFID 카드를 통한 ID 값을 불러오게 되면 ID값 속에 저장되어 있는 모든 데이터가 불러집니다. 이를 통해 DB에 저장되어있는 모든 환자 데이터를 받아올 수 있습니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-35.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41038" alt="68 ICT_간호사연동 (35)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-35.png" width="612" height="496" /></a></p>
<p><span style="color: #00ccff"><strong>7.7.2. DB데이터 가공</strong></span><br />
불러온 데이터를 웹으로 불러오기 전 환자별로 날짜와 시간을 구분하여 데이터를 사용가능하도록 데이터를 가공합니다. 불러온 데이터는 Dict 형태로 모든 데이터는 원하는 데이터를 뽑아 가공하여 사용이 가능합니다. 이를 통해 각 리스트에 날짜와 시간, 시간에 따른 환자 데이터를 각각 모두 구분하여 데이터를 불러올 수 있습니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-36.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41039" alt="68 ICT_간호사연동 (36)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-36.png" width="614" height="275" /></a></p>
<p>저장된 데이터를 Flask에 전달하여 웹상에 표시가 가능하도록 데이터를 넘깁니다.</p>
<p><span style="color: #00ccff"><strong>7.7.3. 웹 디자인</strong></span><br />
웹디자인은 python Flask의 기본 웹 템플릿 엔진인 jinja를 사용합니다. jinja 템플릿 엔진은 태그, 필터, 테스트 및 전역을 사용자 정의가 가능해 자유롭게 사용이 가능합니다. 또한 디버그에 용이하며 최적의 python 코드로 컴파일이 가능하여 많이 사용됩니다. main코드에서 각 분할하여 각각 저장된 데이터를 불러와 웹으로 표현하기 위한 Flask의 html을 사용합니다. 상단의 이름과 함께 table을 나누어 데이터를 구분지어 데이터의 가시성을 더해줍니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-37.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41040" alt="68 ICT_간호사연동 (37)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-37.png" width="612" height="558" /></a></p>
<p><span style="color: #00ccff"><strong>7.7.4. 웹 데이터 추가</strong></span><br />
웹 main코드에서 가공한 이름, 날짜, 시간, 체온 등등 데이터를 각 테이블에 순차적으로 나열하게 됩니다. 이를 통해 DB에 저장된 데이터를 모두 날짜 시간순서대로 나열 가능하여 한눈에 확인 가능하도록 합니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-38.png" rel="lightbox[40948]"><img alt="68 ICT_간호사연동 (38)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-38.png" width="612" height="456" /></a></p>
<p>이를 통해 여러 데이터가 생겨날 경우 같은 날짜에 대해 시간에 대한 측정값을 하나의 덩어리로 묶고, 날짜가 달라지면 그래프를 한 칸 밀어내어 데이터 구분을 지어 각 날짜별로 쉽게 확인이 가능합니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-39.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-40996" alt="68 ICT_간호사연동 (39)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-39.png" width="612" height="264" /></a></p>
<p><strong style="color: #00ccff">7.7.5. 웹 refresh를 통한 주기적인 데이터 업데이트</strong></p>
<p>웹에 데이터를 추가한다고 하더라도 웹페이지는 실행된 시점의 하나의 장면만 보여주기 때문에 DB에 새로 추가된 데이터가 있더라도 웹상에 곧바로 표기되지 않습니다. 따라서 데이터가 추가되는 경우 바로 확인할 수 있도록 지정 초마다 웹 화면을 새로 고침 하여 데이터가 웹상에 반영되도록 합니다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-40.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-40997" alt="68 ICT_간호사연동 (40)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-40.png" width="612" height="666" /></a><br />
체온계, 혈압계에서 온 데이터를 저장한 DB에서 데이터를 다시 불러와 날짜와 시간에 따라 구분해 웹상에 정리하여 시각적으로 도출하며, 시간마다 새로 고침 하여 실시간으로 추가된 데이터도 바로 반영할 수 있도록 하였습니다. 이를 통하여 하나의 디바이스에서 지정된 ID를 통해 환자 데이터에 접근하여 상태를 측정한 데이터를 저장하고 저장된 DB를 통해 웹상으로 표기하여 주기적인 체온과 혈압의 데이터를 자동으로 저장 확인이 가능합니다.</p>
<p><span style="color: #ff6600"><strong>8. 사용한 제품 리스트</strong></span></p>
<table style="width: 620px" border="1" cellspacing="0" cellpadding="0">
<tbody>
<tr>
<td style="text-align: center"><span style="color: #000000">제품명</span></td>
<td style="text-align: center"><span style="color: #000000">디바 상품 번호</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">아두이노 나노 호환보드 CH340 </span></td>
<td style="text-align: center"><span style="color: #000000">1342039</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">블루투스 직렬포트 모듈 HC-05 (DIP)</span></td>
<td style="text-align: center"><span style="color: #000000">1289993</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">MT3608 2A 스텝업 DC컨버터 모듈 </span></td>
<td style="text-align: center"><span style="color: #000000">1342935</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">라즈베리파이4 18650 5V 4A UPS 충전모듈</span></td>
<td style="text-align: center"><span style="color: #000000">12497514</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">초소형 0611 코어리스 진동모터</span></td>
<td style="text-align: center"><span style="color: #000000">1360991</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">라즈베리파이 5인치 HDMI LCD 터치스크린 모니터</span></td>
<td style="text-align: center"><span style="color: #000000">1382229</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">라즈베리파이3 B+ 알뜰키트</span></td>
<td style="text-align: center"><span style="color: #000000">1385482</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">FORA 자동전자혈압계</span></td>
<td style="text-align: center"><span style="color: #000000">12550452</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">18650보호회로 리튬이온 충전지 2000mA</span></td>
<td style="text-align: center"><span style="color: #000000">10889445</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">USB A/M Right-angle 커넥터</span></td>
<td style="text-align: center"><span style="color: #000000">1322880</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">USB A/F, Right-angle 커넥터</span></td>
<td style="text-align: center"><span style="color: #000000">1322109</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">0.96인치 I2C OLED 디스플레이 모듈</span></td>
<td style="text-align: center"><span style="color: #000000">1311755</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">IMMS-12V</span></td>
<td style="text-align: center"><span style="color: #000000">2647</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">18650 리튬배터리 보호회로</span></td>
<td style="text-align: center"><span style="color: #000000">1329640</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">2N2222A</span></td>
<td style="text-align: center"><span style="color: #000000">3247</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">10K옴 저항</span></td>
<td style="text-align: center"><span style="color: #000000">38594</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">1K옴 저항</span></td>
<td style="text-align: center"><span style="color: #000000">30504</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">3색 점퍼용 단선- 0.6 파이</span></td>
<td style="text-align: center"><span style="color: #000000">1153807</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">MicroSDHC 16GB</span></td>
<td style="text-align: center"><span style="color: #000000">10987018</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">비접촉 온도센서 모듈 MLX90614ESF</span></td>
<td style="text-align: center"><span style="color: #000000">10918253</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">핫마인 필라멘트(1kg/PLA)</span></td>
<td style="text-align: center"><span style="color: #000000">12710926</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">택트 스위치</span></td>
<td style="text-align: center"><span style="color: #000000">1361702</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">아두이노 RFID 모듈 RFID-RC522</span></td>
<td style="text-align: center"><span style="color: #000000">1279308</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">범용 페놀 만능 PCB 기판 50&#215;70-단면</span></td>
<td style="text-align: center"><span style="color: #000000">1341710</span></td>
</tr>
<tr>
<td style="text-align: center"><span style="color: #000000">DC 파워잭 2파이</span></td>
<td style="text-align: center"><span style="color: #000000">1322105</span></td>
</tr>
</tbody>
</table>
<p><strong style="color: #ff6600">9. 작품사진</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-41.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-40998" alt="68 ICT_간호사연동 (41)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-41.png" width="620" height="549" /></a></p>
<p><span style="color: #33cccc"><strong> 9.1. 회로도</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-42.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-40999" alt="68 ICT_간호사연동 (42)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-42.png" width="620" height="737" /></a> <a href="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-43.png" rel="lightbox[40948]"><img class="alignnone size-full wp-image-41000" alt="68 ICT_간호사연동 (43)" src="http://www.ntrexgo.com/wp-content/uploads/2021/10/68-ICT_간호사연동-43.png" width="620" height="488" /></a></p>
<p><span style="color: #ff6600"><strong>10. 소스코드</strong></span><br />
<span style="color: #0000ff"><strong>체온계 Arduino</strong></span></p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>#include &lt;SoftwareSerial.h&gt;<br />
#include &lt;Wire.h&gt;<br />
#include &lt;Adafruit_MLX90614.h&gt;<br />
#include &lt;MsTimer2.h&gt;<br />
#include &lt;SPI.h&gt;<br />
#include &lt;MFRC522.h&gt;<br />
#include &#8220;U8glib.h&#8221;<br />
#define SS_PIN 10<br />
#define RST_PIN 9<br />
U8GLIB_SSD1306_128X64<br />
u8g(U8G_I2C_OPT_NONE);</p>
<p>SoftwareSerial BTSerial(5, 4); //TXD,RXD<br />
Adafruit_MLX90614 mlx<br />
= Adafruit_MLX90614();<br />
MFRC522 rfid(SS_PIN, RST_PIN);<br />
MFRC522::MIFARE_Key key;</p>
<p>String RFID_uid;<br />
int t , count, temperature_button , ic = 0;<br />
float list[3], value;<br />
byte nuidPICC[4];</p>
<p>const uint8_t icon[] PROGMEM = {<br />
0xFE, 0&#215;00, 0&#215;03, 0&#215;00, 0&#215;92, 0&#215;00, 0&#215;02,<br />
0&#215;80, 0&#215;54, 0&#215;00, 0x0A, 0&#215;40, 0&#215;38, 0&#215;04,<br />
0&#215;06, 0&#215;80, 0&#215;10, 0&#215;14, 0&#215;03, 0&#215;00, 0&#215;10,<br />
0&#215;54, 0&#215;06, 0&#215;80, 0&#215;11, 0&#215;54, 0x0A, 0&#215;40,<br />
0&#215;15, 0&#215;54, 0&#215;02, 0&#215;80, 0&#215;15, 0&#215;54,<br />
0&#215;03, 0&#215;00,<br />
};</p>
<p>void setup() {<br />
oled_boot();<br />
attachInterrupt(digitalPinToInterrupt(2), interrupt, RISING);<br />
pinMode(2, INPUT_PULLUP);<br />
pinMode(6, OUTPUT);<br />
Serial.begin(9600);<br />
BTSerial.begin(9600);<br />
SPI.begin();<br />
rfid.PCD_Init();<br />
mlx.begin();<br />
Vibration_boot();<br />
oled_image();<br />
Serial.println(&#8220;Ready&#8221;);<br />
temperature_button = 0;<br />
}</p>
<p>void flash() {<br />
Serial.println(count);<br />
count ++;<br />
}</p>
<p>void interrupt() {<br />
temperature_button = 1;<br />
}</p>
<p>void printDec(byte *buffer, byte bufferSize) {<br />
BTSerial.print(&#8220;BC&#8221;);<br />
RFID_uid = &#8220;&#8221;;<br />
for (byte i = 0; i &lt; bufferSize; i++) {<br />
char c[2];<br />
ltoa(buffer[i], c, 16);<br />
if (buffer[i] &lt; 0&#215;10)<br />
{<br />
RFID_uid = RFID_uid + &#8220;0&#8243;;<br />
}<br />
RFID_uid = RFID_uid + c;<br />
BTSerial.print(buffer[i] &lt; 0&#215;10 ? &#8220;0&#8243; : &#8220;&#8221;);<br />
BTSerial.print(buffer[i], HEX);<br />
}<br />
BTSerial.print(&#8220;Z&#8221;);<br />
}</p>
<p>void loop() {<br />
if (temperature_button != 0) {<br />
if (ic == 0) {<br />
for (int i = 0; i &lt; 3; i++) {<br />
list[i] = 0;<br />
}<br />
MsTimer2::set(1000, flash);<br />
MsTimer2::start();<br />
ic = 1;<br />
}<br />
list[count] = mlx.readObjectTempC();<br />
if (list[count] &gt; 20) {<br />
if (int(list[0]) == int(list[1]) &amp;&amp;<br />
int(list[1]) == int(list[2]))<br />
{<br />
if (t == 0) {<br />
value = (list[0] +<br />
list[1] + list[2]) / 3.0;<br />
BTSerial.println(&#8220;BT&#8221; +<br />
String(value) + &#8220;Z&#8221;);<br />
Serial.print(&#8220;Object = &#8220;);<br />
Serial.println(value);<br />
MsTimer2::stop();<br />
t = 1;<br />
temperature_button = 0;<br />
ic = 0;<br />
count = 0;<br />
Vibration_measuring();<br />
oled_image();<br />
} else {<br />
t = 0;<br />
}<br />
}<br />
}<br />
}<br />
if (count == 3) {<br />
count = 0;<br />
}</p>
<p>if ( ! rfid.PICC_IsNewCardPresent())<br />
return;<br />
if ( ! rfid.PICC_ReadCardSerial())<br />
return;<br />
printDec(rfid.uid.uidByte, rfid.uid.size);<br />
Serial.println();<br />
BTSerial.println();<br />
Vibration_measuring();<br />
oled_image();<br />
rfid.PICC_HaltA();<br />
rfid.PCD_StopCrypto1();<br />
}<br />
</div>
<p><span style="color: #0000ff"><strong>혈압계 RaspberryPi</strong></span></p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p># -*- coding: utf-8 -*-<br />
import threading<br />
import pyrebase<br />
import datetime<br />
import RPi.GPIO as GPIO<br />
from bluetooth import*<br />
from dock_ui import *<br />
from PyQt5.QtCore import pyqtSignal<br />
from PyQt5 import QtCore, QtGui, QtWidgets<br />
from firebase import firebase<br />
from time import sleep<br />
from random import *</p>
<p>Motor_PIN = 26<br />
Valve_PIN = 19</p>
<p>GPIO.setmode(GPIO.BCM)<br />
GPIO.setup(Motor_PIN, GPIO.OUT, initial=GPIO.LOW)<br />
GPIO.setup(Valve_PIN, GPIO.OUT, initial=GPIO.LOW)</p>
<p>firebase1 = firebase.FirebaseApplication(&#8220;https://kono-iot-default-rtdb.firebaseio.com/&#8221;)</p>
<p>config = { #개인 코드가 부여되는 공간입니다<br />
}</p>
<p>firebase = pyrebase.initialize_app(config)<br />
db = firebase.database()</p>
<p>y = &#8220;&#8221;<br />
newcode = &#8220;&#8221;<br />
code1 = &#8220;&#8221;<br />
code2 = &#8220;&#8221;<br />
tmp2 = 0<br />
name = &#8220;&#8221;<br />
state = 0<br />
font = &#8220;&#8221;<br />
count = 1<br />
PUL = 0 #pulse 맥박 / 60~100회<br />
DIA = 0 #diastolic b.p 이완기 혈압 / 60~80<br />
SYS = 0 #systolic b.p 수축기 혈압 / 90~120</p>
<p>client_socket=BluetoothSocket( RFCOMM )<br />
state =<br />
client_socket.connect_ex((&#8220;98:d3:c1:fd:87:fe&#8221;,1)) #98:d3:c1:fd:87:fe</p>
<p>def bluetooth(self,ui):<br />
global state,<br />
client_socket,y,newcode,code2,code1,tmp2,name,font,count,PUL, SYS, DIA<br />
nowDate = 0<br />
nowtime = 0<br />
while True:<br />
ui.uiUpdateDelegate.emit(1)</p>
<p>if state: client_socket=BluetoothSocket( RFCOMM )<br />
state =<br />
client_socket.connect_ex((&#8220;98:d3:c1:fd:87:fe&#8221;,1)) #98:d3:c1:fd:87:fe / 98:d3:71:fd:68:ff<br />
print(&#8220;waiting&#8230;&#8221;) sleep(1.5) ui.uiUpdateDelegate.emit(1)<br />
else:<br />
try:<br />
x = client_socket.recv(1024) if(len(x)&gt;0): for i in range(0, len(x), 1):<br />
y = y + x[i]
if(x[i] == &#8220;Z&#8221;):<br />
newcode = y<br />
print(newcode)<br />
y = &#8220;&#8221;<br />
if newcode.find(&#8220;BT&#8221;) != -1:<br />
b = newcode.index(&#8220;BT&#8221;)<br />
tmp1 = newcode[b+2:-1]
tmp2 = float(tmp1)<br />
newcode = &#8220;&#8221;<br />
dt = datetime.datetime.now()<br />
nowDate = dt.strftime(&#8216;%Y-%m-%d&#8217;)<br />
nowtime=dt.strftime(&#8216;%H-%M-%S&#8217;)</p>
<p>if newcode.find(&#8220;BC&#8221;) != -1:<br />
a = newcode.index(&#8220;BC&#8221;)<br />
co = newcode[a+2:-1]
code1 = co<br />
name = firebase1.get(code1,&#8217;name&#8217;)</p>
<p>if(name == None):<br />
font = &#8220;background:transparent;\n&#8221;"font:Bold 14pt \&#8221;Arial\&#8221;;\n&#8221; &#8220;\n&#8221; &#8220;color:rgb(255, 0, 0);&#8221; code1 = &#8220;&#8221; code2 = &#8220;&#8221;<br />
name = &#8220;등록되지 않은 사용자&#8221;<br />
else:<br />
font = &#8220;background:transparent;\n&#8221;"font:Bold 20pt \&#8221;Arial\&#8221;;\n&#8221;"\n&#8221;"color:rgb(255, 255, 255);“<br />
newcode = &#8220;&#8221;</p>
<p>if len(code2)&gt;0 and (code1) != (code2):<br />
print(nowDate) db.child(code2).child(&#8220;value&#8221;).child(nowDate).child(nowtime).update({&#8220;tmp&#8221;: tmp2}) db.child(code2).child(&#8220;value&#8221;).child(nowDate).child(nowtime).update({&#8220;PUL&#8221;: PUL}) db.child(code2).child(&#8220;value&#8221;).child(nowDate).child(nowtime).update({&#8220;DIA&#8221;: DIA}) db.child(code2).child(&#8220;value&#8221;).child(nowDate).child(nowtime).update({&#8220;SYS&#8221;: SYS}) code2 = code1 PUL = 0<br />
DIA = 0<br />
SYS = 0<br />
tmp2 = 0<br />
print(&#8220;upload complete&#8221;)<br />
code2 = code1<br />
except:<br />
state = 1<br />
continue<br />
ui.uiUpdateDelegate.emit(1)<br />
def bloodpressure(self, ui):<br />
global PUL, SYS, DIA, count<br />
while True:<br />
if count == 1:<br />
continue<br />
elif count == 0:<br />
if actuating():<br />
count = 1 continue PUL = randint(60, 100) SYS = randint(110, 130) DIA = randint(70, 80) ui.uiUpdateDelegate.emit(1) count = 1</p>
<p>def actuating():<br />
print(&#8220;operating&#8221;)<br />
GPIO.output(Motor_PIN, 1)<br />
GPIO.output(Valve_PIN, 1)<br />
if waiting_and_repeat(5):<br />
GPIO.output(Motor_PIN, 0) GPIO.output(Valve_PIN, 0)<br />
return 1<br />
GPIO.output(Motor_PIN, 0)<br />
GPIO.output(Valve_PIN, 0)</p>
<p>def waiting_and_repeat(i):<br />
for _ in range (0,i):<br />
if count == 1:<br />
return 1<br />
sleep(0.5)<br />
if count == 1:<br />
return 1<br />
sleep(0.5)<br />
return 0<br />
class MyFirstGuiProgram<br />
(QtWidgets.QMainWindow, Ui_MainWindow):<br />
global y,newcode<br />
,code2,code1,tmp2,name,font, DIA,SYS,PUL<br />
uiUpdateDelegate = pyqtSignal(int)<br />
def __init__(self, parent=None):<br />
QtWidgets.QMainWindow.__init__(self, parent=parent)<br />
self.setupUi(self)<br />
self.uiUpdateDelegate.connect(self.uiUpdater)<br />
self.pushButton.clicked.connect(self.pushButton_clicked)<br />
self.pushButton_2.clicked.connect(self.pushButton_2_clicked)<br />
self.pushButton_3.clicked.connect(self.pushButton_3_clicked)<br />
def uiUpdater(self):<br />
self.name.setStyleSheet(font) self.TEM.setText(str(tmp2))<br />
self.PUL.setText(str(PUL)) self.DIA.setText(str(DIA))<br />
self.SYS.setText(str(SYS)) self.number.setText(code1)<br />
self.name.setText(name)<br />
if (state == 0): self.lineEdit.setStyleSheet(&#8220;background-image:url(:/work/bt.png)&#8221;)<br />
else: self.lineEdit.setStyleSheet(&#8220;&#8221;)<br />
def pushButton_3_clicked (self): client_socket.close()<br />
GPIO.cleanup() sys.exit()<br />
def pushButton_2_clicked (self): client_socket.close()<br />
GPIO.cleanup()<br />
NEWCODE = &#8220;sudo reboot&#8221; os.system(NEWCODE)<br />
sys.exit()<br />
def pushButton_clicked (self):<br />
global count<br />
print(&#8220;Start&#8221;)<br />
if count ==1: count = 0<br />
else:<br />
count = 1<br />
if __name__ == &#8216;__main__&#8217;:<br />
import sys<br />
app = QtWidgets.QApplication(sys.argv)<br />
ui = MyFirstGuiProgram()<br />
#ui.show()<br />
ui.showFullScreen()<br />
thread = threading.Thread(target=bluetooth, args=(None,ui))<br />
thread2 = threading.Thread(target=bloodpressure, args=(None,ui))<br />
thread.daemon = True<br />
thread2.daemon = True<br />
thread.start()<br />
thread2.start()<br />
sys.exit(app.exec_())<br />
</div>
<p><span style="color: #0000ff"><strong>웹 모니터링(서버)</strong></span></p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>import pyrebase<br />
from flask import Flask, render_template, request</p>
<p>config = {<br />
#개인 코드가 부여되는 공간입니다<br />
}</p>
<p>firebase = pyrebase.initialize_app(config)<br />
db = firebase.database()<br />
app = Flask(__name__)<br />
app.jinja_env.add_extension(&#8216;jinja2.ext.loopcontrols&#8217;)<br />
@app.route(&#8216;/&#8217;, methods=['POST', 'GET'])</p>
<p>def main():</p>
<p>tmp1 = db.child(&#8217;02C02E13&#8242;).get()<br />
origin = tmp1.val()</p>
<p>tmp_name = origin.get(&#8216;name&#8217;)<br />
origin1 = origin.get(&#8216;value&#8217;)</p>
<p>day_value = list()<br />
day_list = list(origin1.keys())<br />
day_list_len = len(day_list)<br />
real_value = list()<br />
for i in range(len(day_list)):<br />
day_value.append(&#8216;dic&#8217;+ str(i))<br />
aa = origin1[day_list[i]]
day_value[i] = dict()<br />
day_value[i].update(aa)</p>
<p>for i in range(len(day_list)):<br />
for j in range(len(day_value[i])):<br />
time_value = list(day_value[i])<br />
for k in range(len(day_value[i][time_value[j]])):<br />
mea_value = list(day_value[i][time_value[j]].keys())<br />
real_value.append(day_value[i][time_value[j]][mea_value[k]])</p>
<p>tmp2 = db.child(&#8217;0676041B&#8217;).get()<br />
origin2 = tmp2.val()</p>
<p>tmp_name2 = origin2.get(&#8216;name&#8217;)<br />
origin2 = origin2.get(&#8216;value&#8217;)</p>
<p>day_value2 = list()<br />
day_list2 = list(origin2.keys())<br />
day_list_len2 = len(day_list2)<br />
real_value2 = list()<br />
for i in range(len(day_list2)):<br />
day_value2.append(&#8216;dic&#8217;+ str(i))<br />
aa2 = origin2[day_list2[i]]
day_value2[i] = dict()<br />
day_value2[i].update(aa2)</p>
<p>for i in range(len(day_list2)):<br />
for j in range(len(day_value2[i])):<br />
time_value2 = list(day_value2[i])<br />
for k in range(len(day_value2[i][time_value2[j]])):<br />
mea_value2 = list(day_value2[i][time_value2[j]].keys())<br />
real_value2.append(day_value2[i][time_value2[j]][mea_value2[k]])</p>
<p>return render_template(&#8216;flask jinja.html&#8217;,tmp_name = tmp_name, ttlen = day_list_len, name = day_value, tt = day_list, tmp_name2 = tmp_name2, ttlen2 = day_list_len2, name2 = day_value2, tt2 = day_list2)</p>
<p>if __name__ == &#8216;__main__&#8217;:<br />
app.run(debug=True)<br />
</div>
<p><span style="color: #0000ff"><strong>웹 모니터링(서버)</strong></span></p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>&lt;!DOCTYPE html&gt;<br />
&lt;html&gt;<br />
&lt;head&gt;<br />
&lt;meta http-equiv=&#8221;refresh&#8221; content=&#8221;3&#8243;&gt;<br />
&lt;style&gt;<br />
table{width: 100%;}<br />
td {text-align: center;}<br />
p{font-size: 25px;}<br />
p1{font-size: 18px;}<br />
&lt;/style&gt;<br />
&lt;/head&gt;<br />
&lt;body&gt;<br />
&lt;div&gt;<br />
&lt;h1&gt;간호사의 업무부담을 줄여주는 EMR연동 Vital 계측 시스템&lt;/h1&gt;<br />
&lt;/div&gt;<br />
&lt;hr&gt;<br />
&lt;br&gt;</p>
<p>&lt;table border =3&gt;<br />
&lt;tr&gt;<br />
&lt;td rowspan=&#8221;50&#8243;&gt;&lt;p&gt;{{tmp_name}}&lt;/p&gt;&lt;/td&gt;<br />
&lt;/tr&gt;<br />
&lt;tr&gt;<br />
&lt;th&gt;&lt;p&gt;날짜&lt;/p&gt;&lt;/th&gt;<br />
&lt;th&gt;&lt;p&gt;시간&lt;/p&gt;&lt;/th&gt;<br />
&lt;th&gt;&lt;div&gt;&lt;p&gt;측정값&lt;/p&gt;&lt;/div&gt;&lt;/th&gt;<br />
&lt;/tr&gt;</p>
<p>{% for value in range(ttlen)%}<br />
{% for key2, value2 in name[value].items() %}<br />
&lt;th&gt;&lt;p1&gt;{{ tt[value] }}&lt;/p1&gt;&lt;/th&gt;<br />
&lt;td&gt;&lt;p1&gt; {{ key2 }} &lt;/p1&gt;&lt;/td&gt;<br />
&lt;td&gt;&lt;p1&gt; {{ value2 }} &lt;/p1&gt;&lt;/td&gt;<br />
&lt;tr&gt;<br />
&lt;/tr&gt;<br />
{% endfor %}<br />
&lt;tr&gt;<br />
&lt;td colspan=&#8221;6&#8243;&gt;&lt;div3&gt;.&lt;/div3&gt;&lt;/td&gt;<br />
&lt;/tr&gt;<br />
{% endfor %}<br />
&lt;/table&gt;<br />
&lt;br&gt;<br />
&lt;hr&gt;<br />
&lt;br&gt;</p>
<p>&lt;table border =3&gt;<br />
&lt;tr&gt;<br />
&lt;td rowspan=&#8221;50&#8243;&gt;&lt;p&gt;{{tmp_name2}}&lt;/p&gt;&lt;/td&gt;<br />
&lt;/tr&gt;<br />
&lt;tr&gt;<br />
&lt;th&gt;&lt;p&gt;날짜&lt;/p&gt;&lt;/th&gt;<br />
&lt;th&gt;&lt;p&gt;시간&lt;/p&gt;&lt;/th&gt; &lt;th&gt;&lt;div&gt;&lt;p&gt;측정값&lt;/p&gt;&lt;/div&gt;&lt;/th&gt;<br />
&lt;/tr&gt;</p>
<p>{% for value in range(ttlen2)%}<br />
{% for key2, value2 in name2[value].items() %}<br />
&lt;th&gt;&lt;p1&gt;{{ tt2[value] }}&lt;/p1&gt;&lt;/th&gt;<br />
&lt;td&gt;&lt;p1&gt; {{ key2 }} &lt;/p1&gt;&lt;/td&gt;<br />
&lt;td&gt;&lt;p1&gt; {{ value2 }} &lt;/p1&gt;&lt;/td&gt;<br />
&lt;tr&gt;<br />
&lt;/tr&gt;<br />
{% endfor %}<br />
&lt;tr&gt;<br />
&lt;td colspan=&#8221;6&#8243;&gt;&lt;div3&gt;.&lt;/div3&gt;&lt;/td&gt;<br />
&lt;/tr&gt;<br />
{% endfor %}<br />
&lt;/table&gt;<br />
&lt;br&gt;<br />
&lt;hr&gt;<br />
&lt;br&gt;</p>
<p>&lt;/table&gt;<br />
&lt;/html&gt;<br />
</div>
<p>&nbsp;</p>
<p>&nbsp;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.ntrexgo.com/archives/40948/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>[62호]180도 방향을 한번에 탐지하여 interaction한 반응형 스마트 지팡이</title>
		<link>http://www.ntrexgo.com/archives/39074</link>
		<comments>http://www.ntrexgo.com/archives/39074#comments</comments>
		<pubDate>Thu, 22 Oct 2020 00:00:53 +0000</pubDate>
		<dc:creator>디바이스마트 매거진</dc:creator>
				<category><![CDATA[디바이스마트 매거진]]></category>
		<category><![CDATA[특집]]></category>
		<category><![CDATA[62호]]></category>
		<category><![CDATA[ict]]></category>
		<category><![CDATA[공모전]]></category>
		<category><![CDATA[디바이스마트]]></category>
		<category><![CDATA[매거진]]></category>
		<category><![CDATA[수상작]]></category>
		<category><![CDATA[프로젝트]]></category>

		<guid isPermaLink="false">http://www.ntrexgo.com/?p=39074</guid>
		<description><![CDATA[디바이스마트매거진 62호 &#124; 기존의 굉장히 좁은 방향각도(15도)로 물체를 탐지하는 스마트 지팡이의 단점을 개선하였다.]]></description>
				<content:encoded><![CDATA[<p><strong><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-1.png" rel="lightbox[39074]"><img alt="63 ict 스마트지팡이 (1)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-1-620x177.png" width="620" height="177" /></a></strong></p>
<p><strong>2020 ICT 융합 프로젝트 공모전 우수상</strong></p>
<p><span style="font-size: large"><strong>180도 방향을 한번에 탐지하여</strong></span><strong style="font-size: large">interaction한 </strong></p>
<p><strong style="font-size: large">반응형 스마트 지팡이</strong></p>
<p>글 | 한국과학기술원 김동주</p>
<p><span style="color: #0000ff"><strong>1. 심사평</strong></span><br />
<strong>칩센</strong> 손잡이에 모터를 이용한 햅틱 기능을 포함한 것이 매우 인상적입니다. 단순히 장애물의 유무만을 진동을 통해 알려주는 것이 아닌, 거리와 방향 등도 함께 알려준다는 것이 참신한 아이디어로 와닿습니다. 다만 제품으로 생각하였을 때 모터부가 많이 포함됨에 따른 전류 소모와 무게 등이 조금 걱정입니다. 향후 추가 적용 가능한 기능들( TTS, 사우드, 디스플레이등)을 적용하면 더 열악한 요소가 될 소지가 있어 보여, 위의 사용성에 저해가 될만한 부분을 잘 해결해 나가는 것이 관건일듯 합니다.<br />
<strong>펌테크</strong> 작품의 아이디어와 실용성 창의성이 돋보이는 작품으로 생각됩니다. 6개의 서보모터를 사용해 촉각피드백을 제공하는 내용은 신선했으며 전체척으로 기획 의도에 맞게 시스템을 안정적이고 완성도 높게 구현하였고 제출된 보고서 구성 내용도 명확하고, 충실했다고 생각이 듭니다. 전체적으로 기획의도, 기술 구현도, 완성도 등에서 상당히 우수한 작품으로 생각됩니다.<br />
<strong>위드로봇</strong> 작품의 완성도는 높습니다만, 화이트케인 프로젝트는 과거에 매우 많은 팀들이 시도했던 전력이 있습니다. 기존 사례 연구를 진행한 뒤 보완점을 찾아 진행했으면 창의성에서 더 높은 점수를 받을 수 있습니다.</p>
<p><span style="color: #0000ff"><strong>2. 작품 개요</strong></span><br />
작품은 기존의 굉장히 좁은 방향각도(15도)로 물체를 탐지하는 스마트 지팡이의 단점을 개선하고 다양한 햅틱 반응을 통해 사용자가 물체의 위치와 방향을 인식할 수 있도록 하는 시스템을 스마트 지팡이에 구현하고자 한다.<br />
- 장애물 위치, 방향에 따른 햅틱 반응 (점자와 비슷한)<br />
- 거리에 따른 손잡이 진동 반응<br />
- 블루투스 통신을 통한 스마트폰의 음성 안내 및 진동</p>
<p><span style="color: #0000ff"><strong>3. 작품 설명</strong></span><br />
<span style="color: #00ccff"><strong>3.1. 기존 제품의 문제점</strong></span><br />
일반 보조 지팡이의 경우 보행자의 감각에 의존하여 스스로 위험 수준을 판단하고 대처해야 하는 단점이 있다. 이러한 단점을 개선하고자 많은 사람이 노력해왔고 최근 들어 점점 센서의 가격이 낮아지고 있고 IOT가 넓은 영역에 적용할 수 있게 되자 스마트 지팡이라는 것을 만들게 되었다. 현재 잘 알려진 지팡이로는 we-walk라는 지팡이이다. 이 지팡이는 2015년에 등장하였고 초음파 센서와 진동센서, 스피커, 터치패드가 내장되어 있다. 주요 기능은 전방에 장애물이 있는 것을 진동과 사운드를 통해 경고 해주는 장점이 있다. 하지만 단점으로는 초음파센서의 물체 탐지하는 각도가 최대 15~30도로 굉장히 좁아 지팡이가 향하는 곳만 탐지가 가능하다.<br />
시각장애인이 일반 사람과 달리 거리를 다닐 때 가장 크게 느낄 수 있는 불편한 점은 일반사람은 자신이 가는 길 부분 외에 범위도 볼 수 있어(넓은 화각) 쉽게 장애물 회피가 가능하다. 하지만 시각장애인은 지팡이에 의존하여 자신이 가는 길 좁은 부분에만 장애물의 존재를 알 수가 있다. 그래서 기존의 스마트 지팡이는 이러한 근본적 문제를 해결하지는 못하였다.<br />
이러한 근본적인 문제를 해결하기 위해 새로운 지팡이를 설계하고자 하였고, 현재 자율주행기술에서 보면 자동차 천장상단에 보면 레이더가 360도로 매우 빠르게 도는 것을 볼 수가 있는데 이러한 원리를 지팡이에 도입하여 기존 방식에서 진화하여 사용자의 전방 180도 방향의 물체를 탐지하여 어느 곳에 위치( 거리, 방향에 따라 )가 있는지 알아내어 햅틱이나 진동 소리 등 다양한 감각으로 표현하고자 하였다.</p>
<p><span style="color: #00ccff"><strong>3.2. 주요 동작 및 특징 및 전체 시스템 구성</strong></span><br />
<span style="color: #33cccc"><strong>3.2.1. 초음파 센서 동작</strong></span></p>
<p><span style="color: #33cccc"><strong><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-1.jpg" rel="lightbox[39074]"><img class="alignnone size-full wp-image-39075" alt="63 ict 스마트지팡이 (1)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-1.jpg" width="208" height="224" /></a></strong></span></p>
<p>지팡이 하단에 있는 초음파 센서는 서보 모터와 연결되어 있어 150도를 움직일 수 있다. 1.5초의 시간동안 150도를 회전하게 되는데 이는 우리의 눈으로 봤을 때이고 프로그램에서는 사실은 서보모터는 0.15초마다 10도씩 움직이고 멈추고, 멈추었을 때 해당각도에서 초음파를 보내게 되고 반사되는 시간을 측정하여 거리로 환산한다. 이때 해당 각도와 거리에 따라 3*3 Array에 물체가 탐지되었으면 1로, 물체가 탐지되지 않으면 0으로 하여 매 순간 정보를 업데이트 한다. 근데 이때 이미 배열에 1이 저장되어 있는데 순식간에 0으로 탐지 된다고 하면, 0으로 바꾸지 않는다. 즉 한번 전방을 훑는 과정에서 그 위치에 무언가 탐지되어 1로 바뀌면, 그 훑는 과정에서는 계속 1로 저장된다. 그래야 순식간에 지나가는 장애물도 1.5초 동안 인식했다고 하여, 만의 하나의 위험을 막을 수 있게 된다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-2.png" rel="lightbox[39074]"><img class="alignnone size-full wp-image-39078" alt="63 ict 스마트지팡이 (2)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-2.png" width="620" height="171" /></a></p>
<p>이런 방식으로 동작을 하게 되면 1.5초 간격마다는 사용자 앞의 중심으로 150도 각도로 탐지되어 대략 몇 도 방향에 몇 cm 거리에 해당하는 배열을 통해 장애물이 어디에 있는지 정보를 인지 할 수 있게 된다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-3.png" rel="lightbox[39074]"><img class="alignnone size-full wp-image-39080" alt="63 ict 스마트지팡이 (3)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-3.png" width="620" height="347" /></a></p>
<p>초음파 센서를 2개 쓰는 이유는 각 초음파 센서의 위아래 탐지 각도가 15도 이내이므로 2개를 사용함으로써 총 30도이상의 각도가 탐지가 가능하게 하였고 한 센서의 탐지가 잘못되어 일어나지 않는다면 다른 센서가 이를 탐지 할 수 있게 하기 위함이다.</p>
<p><span style="color: #33cccc"><strong>3.2.2. 6개의 서보모터</strong></span><br />
3.2.1 초음파 센서 동작에서 얻은 초음파센서의 3*3 array 정보 중 가까운 거리의 2*3 array만을 이용하여 6개의 서보모터를 통해서 촉각 피드백을 제공한다.<br />
아래 표와 그림3과 같이 해당 array에 0의 값이 있으면 서보모터의 각도를 1이 있으면 90도로 설정한다. 그렇게 되면 바깥쪽으로 component가 튀어나오게 되어 촉각적인 정보를 제공할 수 있게 된다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-4.png" rel="lightbox[39074]"><img class="alignnone size-full wp-image-39082" alt="63 ict 스마트지팡이 (4)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-4.png" width="620" height="437" /></a></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-5.png" rel="lightbox[39074]"><img class="alignnone size-full wp-image-39083" alt="63 ict 스마트지팡이 (5)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-5.png" width="620" height="333" /></a></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-6.png" rel="lightbox[39074]"><img class="alignnone size-full wp-image-39084" alt="63 ict 스마트지팡이 (6)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-6.png" width="620" height="507" /></a></p>
<p>즉 사용자의 입장에서 1.5초 동안 좌측 0~50도 방향에만 15~70cm 거리 부근에 장애물이 탐지되었다면 배열은 다음과 같이 정보를 저장하고, 서보 모터는 그 배열의 정보를 바탕으로 (점자 비슷하게) 1인 부분만 돌아간다.</p>
<p><span style="color: #33cccc"><strong>3.2.3. 블루투스 모듈</strong></span><br />
서보 모터와 마찬가지로 초음파 센서가 update시킨 3*3 array 0,1 정보를 바탕으로 블루투스 모듈이 해당 거리 정보를 폰으로 송신하여, 스마트폰에서 그 정보를 읽을 수 있도록 해준다.</p>
<p><span style="color: #33cccc"><strong>3.2.4 스마트 기기</strong></span><br />
블루투스로 수신된 데이터를 바탕으로 스마트폰 디스플레이에 정보를 표시하고 진동 피드백과 Google의 text to speech를 이용하여 청각적인 정보로도 명확히 알 수 있게 한다.</p>
<p><strong>탐지 거리에 따른 앱 인터페이스 속 표시되는 이미지</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-8.png" rel="lightbox[39074]"><img class="alignnone size-full wp-image-39086" alt="63 ict 스마트지팡이 (8)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-8.png" width="616" height="176" /></a></p>
<p><span style="color: #0000ff"><strong>4. 개발과정 및 기타</strong></span><br />
<span style="color: #00ccff"><strong>4.1. 하드웨어 구성</strong></span><br />
다음은 회로 구성도이다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-9.png" rel="lightbox[39074]"><img class="alignnone size-large wp-image-39087" alt="63 ict 스마트지팡이 (9)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-9-620x489.png" width="620" height="489" /></a></p>
<p>사용된 부품은 a. 7개의 servo motor b. 2개의 초음파 센서(HC-SR04) c. 스위치 d. 블루투스 모듈 (HC-06) e. Servo motor 6개의 제어를 위한 pca9685 chip f. Vibration motor g. AAA 건전지 4개 h. 아두이노 이다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-10.png" rel="lightbox[39074]"><img class="alignnone size-large wp-image-39088" alt="63 ict 스마트지팡이 (10)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-10-620x345.png" width="620" height="345" /></a></p>
<p><strong><span style="color: #00ccff">4.2. 외형도 (모델링 과정 및 햅틱을 위한 부품 제작)</span></strong><br />
외형은 다음과 같이 AUTOCAD사의 fusion360 프로그램으로 설계하고 SINDOH 3D프린터로 외형을 제작했다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-11.png" rel="lightbox[39074]"><img class="alignnone size-large wp-image-39089" alt="63 ict 스마트지팡이 (11)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-11-620x243.png" width="620" height="243" /></a></p>
<p>시각장애인을 촉각을 느끼게 할 수 있는 햅틱을 위한 서보모터에 부착하는 COMPONENT는 illustrator로 제작을 하여 레이저 컷팅기로 아크릴 5T를 잘라 만들었다. 그리고 로고를 MDF 3T를 레이저 컷팅기로 음각을 새겨내 손잡이 전면부 동그란 부분에 끼워 붙였다.<br />
모델을 다 뽑았으면, 아두이노와 서보모터, 기타 센서들을 회로와 같이 만들 모델 케이스 안에 부착한다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-2.jpg" rel="lightbox[39074]"><img class="alignnone size-large wp-image-39077" alt="63 ict 스마트지팡이 (2)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-2-620x341.jpg" width="620" height="341" /></a></p>
<p>그 후 지름 2cm 길이 90cm의 나무 막대기를 모델하단부에 붙여준다.</p>
<p><span style="color: #00ccff"><strong>4.3. 완성된 모델의 랜더링</strong></span></p>
<p><span style="color: #00ccff"><strong><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-12.png" rel="lightbox[39074]"><img class="alignnone size-large wp-image-39090" alt="63 ict 스마트지팡이 (12)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-12-620x289.png" width="620" height="289" /></a></strong></span></p>
<p>랜더링은 keyshot을 이용했다.</p>
<p><span style="color: #00ccff"><strong>4.4. 코딩 작업</strong></span><br />
<span style="color: #33cccc"><strong>4.4.1. Arduino coding</strong></span><br />
<span style="color: #000000"><div class="symple-box yellow none" style="text-align:left; width:100%;"> 
</span></p>
<p>#define WINDOW_SIZE 5<br />
#include &lt;Servo.h&gt;<br />
#include &lt;Wire.h&gt;<br />
#include &lt;Adafruit_PWMServoDriver.h&gt;<br />
#include &lt;SoftwareSerial.h&gt;<br />
Adafruit_PWMServoDriver pwm = Adafruit_PWMServoDriver();</p>
<p>&nbsp;</p>
<p>SoftwareSerial BTSerial(2,3); //tx rx핀 순서로 설정</p>
<p>&nbsp;</p>
<p>//#define SERVOMIN 150 // This is the &#8216;minimum&#8217; pulse length count (out of 4096)<br />
//#define SERVOMAX 600 // This is the &#8216;maximum&#8217; pulse length count (out of 4096)<br />
#define SERVOMID 400<br />
#define SERVOMIN 130<br />
#define SERVOMAX 633</p>
<p>&nbsp;</p>
<p>Servo myservo;<br />
int opp=0;</p>
<p>&nbsp;</p>
<p>//서보모터 각도<br />
int angle=0;</p>
<p>&nbsp;</p>
<p>//전방에 있는 물체<br />
int search[3][3]={0,};</p>
<p>&nbsp;</p>
<p>int echoPin1 = 12; //초록색 핀<br />
int trigPin1 = 13; //노란색 핀<br />
int echoPin2 = 7; //흰색 핀<br />
int trigPin2 = 8; //</p>
<p>&nbsp;</p>
<p>int vibration = 6; //진동모터</p>
<p>&nbsp;</p>
<p>int sw=5;</p>
<p>&nbsp;</p>
<p>//함수 선언하는 곳<br />
void vibrate(float f_distance1, float f_distance2);</p>
<p>&nbsp;</p>
<p>void setup(){<br />
myservo.attach(9); //<br />
Serial.begin(9600);<br />
BTSerial.begin(9600);<br />
pinMode(trigPin1, OUTPUT);<br />
pinMode(trigPin2, OUTPUT);<br />
pinMode(echoPin1, INPUT);<br />
pinMode(echoPin2, INPUT);<br />
pinMode(sw, INPUT_PULLUP);<br />
pwm.begin();<br />
pwm.setPWMFreq(60); // Analog servos run at ~50 Hz updates<br />
delay(10);<br />
}<br />
void loop(){<br />
//myservo.attach(9);<br />
if (digitalRead(sw) == LOW) {<br />
Serial.print(&#8220;ANGLE:&#8221;);<br />
Serial.println(angle);<br />
if(!opp){<br />
angle+=10;<br />
}<br />
else{<br />
angle-=10;<br />
}<br />
myservo.write(angle);</p>
<p>// 초음파를 보낸다. 다 보내면 echo가 HIGH 상태로 대기하게 된다.<br />
digitalWrite(trigPin1, LOW);<br />
digitalWrite(echoPin1, LOW);</p>
<p>delayMicroseconds(2);<br />
digitalWrite(trigPin1, HIGH);</p>
<p>delayMicroseconds(10);<br />
digitalWrite(trigPin1, LOW);<br />
// echoPin 이 HIGH를 유지한 시간을 저장 한다.<br />
unsigned long duration1 = pulseIn(echoPin1, HIGH);<br />
digitalWrite(trigPin2, LOW);<br />
digitalWrite(echoPin2, LOW);</p>
<p>delayMicroseconds(2);<br />
digitalWrite(trigPin2, HIGH);</p>
<p>delayMicroseconds(10);<br />
digitalWrite(trigPin2, LOW);<br />
unsigned long duration2 = pulseIn(echoPin2, HIGH);</p>
<p>float distance1 = ((float)(340 * duration1) / 10000) / 2;<br />
float distance2 = ((float)(340 * duration2) / 10000) / 2;</p>
<p>Serial.print(&#8220;filter_dis1: &#8220;);<br />
Serial.println(distance1);<br />
Serial.print(&#8220;filter_dis2: &#8220;);<br />
Serial.println(distance2);<br />
vibrate(distance1,distance2);</p>
<p>if((distance1&lt;=90 &amp;&amp; distance1&gt;50) || (distance2&lt;=90 &amp;&amp; distance2&gt;50)){<br />
if(0&lt;=angle &amp;&amp; angle&lt;55){<br />
search[2][0]=1;<br />
}<br />
else if(search[2][0]==0){<br />
search[2][0]=0;<br />
}<br />
if(55&lt;=angle &amp;&amp; angle&lt;110){<br />
search[2][1]=1;<br />
}<br />
else if(search[2][1]==0){<br />
search[2][1]=0;<br />
}<br />
if(110&lt;=angle &amp;&amp; angle&lt;165){<br />
search[2][2]=1;<br />
}<br />
else if(search[2][2]==0){<br />
search[2][2]=0;<br />
}<br />
}</p>
<p>else if((distance1&lt;=70 &amp;&amp; distance1&gt;20) || (distance2&lt;=70 &amp;&amp; distance2&gt;20)){<br />
if(0&lt;=angle &amp;&amp; angle&lt;55){<br />
search[1][0]=1;<br />
}</p>
<p>else if(search[1][0]==0){<br />
search[1][0]=0;<br />
}</p>
<p>if(55&lt;=angle &amp;&amp; angle&lt;110){<br />
search[1][1]=1;<br />
}</p>
<p>else if(search[1][1]==0){<br />
search[1][1]=0;<br />
}</p>
<p>if(110&lt;=angle &amp;&amp; angle&lt;165){<br />
search[1][2]=1;<br />
}</p>
<p>else if(search[1][2]==0){<br />
search[1][2]=0;<br />
}<br />
}<br />
else if((distance1&lt;=20 &amp;&amp; distance1&gt;1) || (distance2&lt;=20 &amp;&amp; distance2&gt;1)){<br />
if(0&lt;=angle &amp;&amp; angle&lt;55){<br />
search[0][0]=1;<br />
}<br />
else if(search[0][0]==0){<br />
search[0][0]=0;<br />
}<br />
if(55&lt;=angle &amp;&amp; angle&lt;110){<br />
search[0][1]=1;<br />
}<br />
else if(search[0][1]==0){<br />
search[0][1]=0;<br />
}</p>
<p>if(110&lt;=angle &amp;&amp; angle&lt;165){<br />
search[0][2]=1;<br />
}<br />
else if(search[0][2]==0){<br />
search[0][2]=0;<br />
}<br />
}</p>
<p>if(angle&gt;=180){<br />
int b_send=0;<br />
for(int i=0;i&lt;3;i++){<br />
for(int j=0;j&lt;3;j++){<br />
uint8_t servonum = 1+j+i*3;<br />
if(search[i][j]==1){<br />
if(i==0 &amp;&amp; b_send==0){<br />
BTSerial.write(&#8220;a&#8221;);<br />
b_send=1;<br />
}<br />
else if(i==1 &amp;&amp; b_send==0){<br />
BTSerial.write(&#8220;b&#8221;);<br />
b_send=1;<br />
}<br />
else if(i==2 &amp;&amp; b_send==0){<br />
BTSerial.write(&#8220;c&#8221;);<br />
b_send=1;<br />
}<br />
pwm.setPWM(servonum,0,SERVOMID);<br />
}<br />
else{<br />
pwm.setPWM(servonum,0,SERVOMIN);<br />
}<br />
search[i][j]=0;<br />
}<br />
}<br />
b_send=0;<br />
opp=1;<br />
}<br />
if(angle&lt;=0){<br />
int b_send=0;<br />
for(int i=0;i&lt;3;i++){<br />
for(int j=0;j&lt;3;j++){<br />
uint8_t servonum = 1+j+i*3;<br />
if(search[i][j]==1){<br />
if(i==0 &amp;&amp; b_send==0){<br />
BTSerial.write(&#8220;a&#8221;);<br />
b_send=1;<br />
}<br />
else if(i==1 &amp;&amp; b_send==0){<br />
BTSerial.write(&#8220;b&#8221;);<br />
b_send=1;<br />
}<br />
else if(i==2 &amp;&amp; b_send==0){<br />
BTSerial.write(&#8220;c&#8221;);<br />
b_send=1;<br />
}<br />
pwm.setPWM(servonum,0,SERVOMID);<br />
}<br />
else{<br />
pwm.setPWM(servonum,0,SERVOMIN);<br />
}<br />
search[i][j]=0;<br />
}<br />
}<br />
b_send=0;<br />
opp=0;<br />
}<br />
delay(100);<br />
//myservo.detach();<br />
}<br />
else{<br />
analogWrite(vibration,0);<br />
}<br />
}<br />
void vibrate(float f_distance1, float f_distance2){<br />
if((f_distance1 &lt;= 100 &amp;&amp; f_distance1 &gt; 60) || (f_distance2 &lt;= 100 &amp;&amp; f_distance2 &gt; 60)){<br />
analogWrite(vibration, 100);// 진동모터를 200/255의 파워로 작동시킵니다.<br />
}<br />
else if(f_distance1&lt;=70 &amp;&amp; f_distance1&gt;15 &amp;&amp; f_distance2&lt;=70 &amp;&amp; f_distance2&gt;15){<br />
analogWrite(vibration,180);<br />
}<br />
else if((f_distance1&lt;=15 &amp;&amp; f_distance1&gt;1) || (f_distance2&lt;=15 &amp;&amp; f_distance2&gt;1)){<br />
analogWrite(vibration,240);</p>
<p>&nbsp;</p>
<p>}<br />
else{<br />
analogWrite(vibration,0);<br />
}<br />
}</p>
<p><span style="color: #000000"> </div></span></p>
<p><span style="color: #33cccc"><strong>4.4.2. App inventor coding (안드로이드 앱 구현)</strong></span><br />
<strong>A. 앱 및 인터페이스 디자인</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-13.png" rel="lightbox[39074]"><img class="alignnone size-large wp-image-39091" alt="63 ict 스마트지팡이 (13)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-13-620x564.png" width="620" height="564" /></a><br />
시각장애인 안내견의 이미지를 지팡이로 표현하여 친숙한 이미지를 나타내고자 하였다.</p>
<p><strong>B. 변수 및 함수 선언</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-14.png" rel="lightbox[39074]"><img class="alignnone size-large wp-image-39092" alt="63 ict 스마트지팡이 (14)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-14-620x293.png" width="620" height="293" /></a></p>
<p><strong>C. Screen1에 대한 설정</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-15.png" rel="lightbox[39074]"><img class="alignnone size-large wp-image-39093" alt="63 ict 스마트지팡이 (15)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-15-620x527.png" width="620" height="527" /></a></p>
<p>&nbsp;</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-16.png" rel="lightbox[39074]"><img class="alignnone size-large wp-image-39094" alt="63 ict 스마트지팡이 (16)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-16-620x553.png" width="620" height="553" /></a></p>
<p><strong>D. Clock (반복문)에 대한 설정</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-17.png" rel="lightbox[39074]"><img class="alignnone size-large wp-image-39095" alt="63 ict 스마트지팡이 (17)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-17-530x620.png" width="530" height="620" /></a></p>
<p><strong>E. 여러 컴포넌트에 대한 설정</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-18.png" rel="lightbox[39074]"><img class="alignnone size-full wp-image-39096" alt="63 ict 스마트지팡이 (18)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-18.png" width="613" height="284" /></a></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-19.png" rel="lightbox[39074]"><img class="alignnone size-large wp-image-39097" alt="63 ict 스마트지팡이 (19)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-19-620x483.png" width="620" height="483" /></a></p>
<p>&nbsp;</p>
<p><span style="color: #33cccc"><strong>4.5. 테스트 작업</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-4.jpg" rel="lightbox[39074]"><img class="alignnone size-large wp-image-39081" alt="63 ict 스마트지팡이 (4)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-4-620x334.jpg" width="620" height="334" /></a></p>
<p>수많은 테스트를 통해, 초음파 센서 최대각도 중 150을 얼만큼의 단위 각도로 나누어서 돌릴지, 그 단위 각도를 몇 초 동안 움직이게 할 것인지, 초음파 센서위치와 각도를 어떻게 하면 수직으로 더 넓은 범위의 물체를 탐지할 수 있는지, 진동모터의 세기는 얼마로 할 것인지, 얼마나 먼 거리의 물체부터 탐지해야 되는지에 대한 값을 구하고자 하였다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-3.jpg" rel="lightbox[39074]"><img class="alignnone size-large wp-image-39079" alt="63 ict 스마트지팡이 (3)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/63-ict-스마트지팡이-3-620x374.jpg" width="620" height="374" /></a></p>
<p><strong style="color: #0000ff">5. 기대효과</strong></p>
<p>매우 좁은 범위의 상황만 인지할 수 있는 시각장애인들의 근본적인 불편한 점을 자율주행자동차의 전방향의 도로 상황을 탐지하는 원리를 이용하여 해결함으로써 시각장애인들이 앞에 놓여진 상황에 대한 다양한 물체 정보과 피드백을 제공할 수 있게 된다. 스마트폰의 블루투스 기능을 연동하여 TTS기능, 사운드, 진동, 디스플레이 등의 더욱 확장성 있는 사용과 시각, 촉각, 청각 등 다양한 피드백 제공이 가능해진다. 처음에만 페어링하면 블루투스 주소를 계속 저장하고 있어 에어팟과 같이 지팡이와 스마트폰의 각각의 블루투스 기능만 켜져 있으면 자동으로 연결하여 매번 연결하는 불편한 점을 해소한다.</p>
<p><span style="color: #0000ff"><strong>6. 추후 연구</strong></span><br />
초음파 센서가 달린 서보모터의 경우 계속 움직여야 하기 때문에 전력소모가 매우 심하고 소음도 살짝 존재한다. 이러한 문제를 해결하기 위해서 딥러닝의 영상처리능력을 이용하여 전방의 물체와 배경을 잘 구분하여 대략적인 거리를 유추하여 가까이 있다고 판단되면 그 때 서보 모터를 움직여 초음파 센서나 혹은 Tof 센서로 정확한 거리를 측정하게 되면 이러한 전력 문제와 소음 문제도 해결가능 할 것으로 보인다.<br />
현재의 작품의 경우 0~50도, 50~100도, 100~150도 범위0 안의 물체가 있다라는 것을 인지 할 수 있지만 더욱 세분화하여 각도를 나누어 전방의 정보를 완벽히 인식하여 사용자의 앞 상황을 촉각적인 증강현실로 구현함으로써 시각장애인의 보행 중 문제 뿐만 아니라 전반적인 삶의 질 향상에 기여 할 수 있게 될 것 이다.</p>
<p><span style="color: #0000ff"><strong>7. 참고 문헌</strong></span><br />
가. <a href="https://www.youtube.com/watch?v=y8X9X10Tn1k" target="_blank">https://www.youtube.com/watch?v=y8X9X10Tn1k</a><br />
나. <a href="https://learn.adafruit.com/16-channel-pwm-servo-driver/hooking-it-up" target="_blank">https://learn.adafruit.com/16-channel-pwm-servo-driver/hooking-it-up</a><br />
다. <a href="http://adafruit.github.io/Adafruit-PWM-Servo-Driver-Library/html/class_adafruit___p_w_m_servo_driver.html#a724a7fc39c6fba34478ecc0eea038bd3" target="_blank">함수사용 </a><br />
라. <a href="https://blog.naver.com/roboholic84/10186975566" target="_blank">https://blog.naver.com/roboholic84/10186975566</a><br />
마. <a href="https://cafe.naver.com/mechawiki/104" target="_blank">https://cafe.naver.com/mechawiki/104</a><br />
바. <a href="https://kocoafab.cc/tutorial/view/704" target="_blank">https://kocoafab.cc/tutorial/view/704</a></p>
<p>&nbsp;</p>
<p>&nbsp;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.ntrexgo.com/archives/39074/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>[62호]Mindwave mobile 2를 이용한  뇌파 기반 응급호출 시스템</title>
		<link>http://www.ntrexgo.com/archives/39136</link>
		<comments>http://www.ntrexgo.com/archives/39136#comments</comments>
		<pubDate>Thu, 22 Oct 2020 00:00:53 +0000</pubDate>
		<dc:creator>디바이스마트 매거진</dc:creator>
				<category><![CDATA[디바이스마트 매거진]]></category>
		<category><![CDATA[특집]]></category>
		<category><![CDATA[62호]]></category>
		<category><![CDATA[ict]]></category>
		<category><![CDATA[공모전]]></category>
		<category><![CDATA[디바이스마트]]></category>
		<category><![CDATA[매거진]]></category>
		<category><![CDATA[수상작]]></category>
		<category><![CDATA[프로젝트]]></category>

		<guid isPermaLink="false">http://www.ntrexgo.com/?p=39136</guid>
		<description><![CDATA[디바이스마트매거진 62호 &#124; 의사 표현이 힘든 노약자나 어린아이를 위하여 BCI기술과 AI을 접목해 간병인에게 환자의 상태를(응급/평상시) 알려주는 도구이다.]]></description>
				<content:encoded><![CDATA[<p><strong><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-15.png" rel="lightbox[39136]"><img class="alignnone size-large wp-image-39152" alt="62 ict 뇌파 응급호출시스템 (15)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-15-620x177.png" width="620" height="177" /></a></strong></p>
<p><span style="font-size: medium"><strong>2020 ICT 융합 프로젝트 공모전 우수상</strong></span></p>
<p><span style="font-size: large"><strong>Mindwave mobile 2를 이용한 </strong><strong style="font-size: x-large">뇌파 기반 응급호출 시스템</strong></span></p>
<p>글 | 숭실대학교 최영림, 최지웅, 이하영, 김수희</p>
<p>&nbsp;</p>
<p><span style="color: #0000ff"><strong>1. 심사평</strong></span><br />
<strong>칩센</strong> 측정한 뇌파가 유사한 상황에 대하여 모든 사람이 동일한 혹은 비슷하게 출력되는지가 궁금합니다. 만약 그렇다면 시스템 및 DB구축이 충분히 가능할 듯 합니다만, 그렇지 않다면 이미 의사표현과 거동이 불편한 노약자들이 각각의 DB를 구축하기는 쉽지 않을듯 합니다. 의료기기 또는 의료 보조기의 경우 critical한 정보를 해석하거나 판정을 위한 데이터를 제공해야 하므로 신중하게 접근할 필요가 있어 보입니다.<br />
<strong>펌테크</strong> 아이디어와 창의성을 갖춘 작품이라고 생각이 듭니다. 단 제출된 보고서 내용을 고려하면 작품에 대한 기획의도는 우수하다고 생각되지만 계획에 대비해서 출품작의 일부 진행 과정은 확인이 되나 최종적인 완성도를 구체적으로 확인할 수가 없었습니다.<br />
<strong>위드로봇</strong> 수집한 데이터 양이 작은 점이 문제이지만 학부생 연구에서는 더 이상을 요구하는 것도 무리라 생각이 듭니다.</p>
<p><span style="color: #0000ff"><strong>2. 서론</strong></span><br />
SWEEG 팀이 개발한 ‘뇌파 기반 응급호출 시스템’은 의사 표현이 힘든 노약자나 어린아이를 위하여 BCI기술과 machine learning(AI)을 접목해 간병인에게 환자의 상태를(응급/평상시) 알려주는 도구이다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-1.png" rel="lightbox[39136]"><img class="alignnone size-full wp-image-39138" alt="62 ict 뇌파 응급호출시스템 (1)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-1.png" width="620" height="432" /></a></p>
<p>과학기술이 발전하면서 인간의 평균 수명은 그림1과 같이 높아졌고, 다양한 질병의 규명이 가능해지게 되었으며, 그러한 질병에서 오는 불편함을 해소하고자 하는 개선 욕구 또한 증가하는 추세가 되었다. 시대적 흐름에 맞춰 인간의 삶의 질에 대한 중요성이 점차 높아짐에 따라 특히 바이오산업이 주목을 받게 되었다.<br />
한편, 현재 사람들이 살아가는 시대는 업종별 구분이 무의미해지는 변화의 시기이다. ‘4차 산업혁명’이라고 흔히 부르는 이러한 변화는 AI의 발전을 기반으로 자동차, 가전, 의료기기 등 여러 분야의 구분을 무너뜨리고 모든 것이 연결되는 세상을 만들고 있다.<br />
바이오 산업은 최근 IT 기술과 접목하면서 큰 성장을 이루며 점차 복잡-세분화되고 있다. 그중 인간과 컴퓨터 간의 상호 작용을 연구하는 학문 분야인 HCI(Human-Computer Interface)에 대한 수요가 증가하고 있다. 특히, BCI(Brain-Computer Interface)는 미국 MIT 대학과 세계 경제포럼 등에서 10대 유망기술로 선정되기도 하였다.<br />
BCI 기술이란 사람의 뇌 활동을 측정해 생각, 의도, 감정 등을 분석하고 이러한 정보를 명령으로 변환해 다양한 외부기기를 제어하거나 사용자의 의사, 의도를 외부에 전달하는 기술을 말한다. [1] 오랫동안 수많은 연구자들이 뇌파를 분석해왔고 그 결과 최근 과학자들이 뇌 속 신호체계를 컴퓨터로 표현하는 방법을 개발하게 되면서 BCI기술이 본격적으로 발전할 수 있게 되었다. 지난 수십 년간의 연구에서 인간이 말을 할 때나 뭔가를 생각할 때 인간의 두뇌는 뚜렷한 활동 패턴이 나타나는 것으로 밝혀지고 있다. 또한, 누군가의 말을 들을 때, 혹은 듣는 것을 상상할 때에도 뇌가 인식 가능한 신호 패턴이 나타나는 것으로 밝혀졌다. [2] 이는 BCI를 통해 뇌파를 갖고 실제 의사소통이 가능하다는 것을 보여준다.<br />
본 프로젝트에서는 딥러닝을 이용한 실시간 뇌파 기반 호출 시스템의 모델과 결과물을 제공하고자 한다. 환자들의 의사 혹은 응급 시 호출 상황을 말이나 몸짓이 아닌 뇌파로 표현할 수 있도록 컴퓨터 알고리즘과 인공지능을 이용하여 분석하고 이를 간병인 혹은 의사에게도 적용할 수 있을 것이다.</p>
<p><span style="color: #0000ff"><strong>3. 제품 설명</strong></span><br />
<span style="color: #33cccc"><strong>3.1. BCI 시스템</strong></span><br />
BCI 시스템은 측정 방법에 따라 침습식 혹은 비침습식 방식이 있다. 침습식은 두개강내뇌파, 국소장전위, 마이크로 전극, 마이크로 전극배열 등을 이용하고 비침습식은 뇌전도, 뇌자도, 양전자 단층촬영, 근적외선분광, 기능적 자기공명영상을 이용한다. 두 방식은 각기 장단점을 가지고 있다. 침습식은 두피를 뚫고 뇌 피질 혹은 뇌 안에서 직접 신호를 측정하기 때문에 센서의 생체적합성 이 중요한 사항이 된다. 이는 신호의 질과 시간/공간 해상도가 뛰어나다는 장점이 있기는 하지만, 센서의 생체적합성 및 장기간 이식되어도 문제가 되지 않는 디자인과 재질 그리고 신경조직을 상하지 않으면서 저 전력과 무선으로 동작할 수 있는 전극에 대한 연구가 요구된다. 이에 반해, 비침습식은 잡음 문제가 있어 신호의 질이 떨어지지만, 인체에 무해하고 준비과정이 복잡하지 않기 때문에 선호되고 있다[3].<br />
BCI 시스템은 기본적으로 학습 과정과 피드백과정으로 구성된다. 학습 과정은 전처리 단계, 특징 정보 추출 단계와 분류 단계로 나뉜다.</p>
<p>· 전처리 단계<br />
뇌파는 측정 시 전극을 부착하는 위치와 방법, 실험 환경, 피험자의 움직임 등에 의하여 잡음이 발생하기 쉬우며, 잡음이 포함된 뇌파는 BCI 시스템에 사용하기 부적절하다. 따라서 효율적인 BCI시스템을 구성하기 위해서는 전처리 과정을 수행하여 신뢰성 있는 뇌파를 수집하여야 한다.</p>
<p>· 특징 정보 추출 단계<br />
특징추출은 주어진 입력자료보다 적은 차원을 가지면서 동시에 자료를 분류하기 위한 특징을 충분히 포함하는 입력신호의 특징을 찾아내는 과정이다. 이러한 특징을 이용하면 분류를 위한 계산량을 감소시킬 수 있을 뿐만 아니라 불필요한 특징을 제거함으로써 분류성능을 향상시킬 수 있다.</p>
<p>· 분류 단계<br />
특징추출을 거친 뇌파 신호는 실질적인 기기 제어 등을 위한 분석 및 분류 과정을 거치게 된다. 다양한 감각 기관을 통하여 전달되는 정보를 처리, 분석, 종합하여 미리 정의된 특정 패턴들 중 어떤 부류에 속하는지 판별하는 기술이다. 생체 인식의 한 분야인 BCI 분야에서 활용되어지는 기법으로는 은닉마르코프모델(HMM: Hidden Markov Models), Kalman Filter Model, 다층신경회로망(Multi Layer Perceptron)등이 있다.<br />
이후 피드백과정은 마우스커서 컨트롤, 휠체어 운전, 로봇팔의 제어 등의 구체적 응용에 적용한다.</p>
<p><span style="color: #33cccc"><strong>3.2. 주요 동작 및 특징</strong></span><br />
먼저 Mindwave Mobile2(이하 측정기)와 연결된 클라이언트가 실행되면 호출 서버에 대한 Post Request를 통해 해당 기기의 등록 여부를 확인하고 아닐 경우 등록한다. 그 후 측정기와 현재 블루투스 통신을 하고 있는지 확인하고 정상적으로 수행됨을 확인한 후 측정기로부터 사용자의 뇌파 데이터를 수신받는다. 수신받은 뇌파 데이터는 곧바로 미리 학습된 딥러닝 모델에 의해 호출 상황인지 예측하는 작업을 수행한다.<br />
해당 뇌파가 응급 시 호출 상황일 경우 측정기의 MAC address와 함께 서버로 Get Request를 보내 호출 요청을 전송하게 된다.<br />
호출 요청을 받은 서버는 DB의 ‘call’ 테이블을 확인하여 해당 기기와 호출 관계인 피호출자가 존재하는지 확인한다. 존재하는 경우에는 ‘callee’ 테이블로부터 해당 피호출자의 토큰을 읽어오고 이를 기반으로 Firebase의 FCM을 이용하여 피호출자 모바일 어플리케이션에 호출을 요청한 유저의 이름이 담긴 푸시 메시지를 전송하게 된다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-2.png" rel="lightbox[39136]"><img class="alignnone size-large wp-image-39139" alt="62 ict 뇌파 응급호출시스템 (2)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-2-480x620.png" width="480" height="620" /></a></p>
<p><span style="color: #33cccc"><strong>3.3. 전체 시스템 구성도</strong></span><br />
<strong>3.3.1. 순서도</strong><br />
본 작품의 순서도는 다음과 같다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-3.png" rel="lightbox[39136]"><img class="alignnone size-large wp-image-39140" alt="62 ict 뇌파 응급호출시스템 (3)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-3-480x620.png" width="480" height="620" /></a></p>
<p><strong>3.3.2. 시스템 구성도</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-4.png" rel="lightbox[39136]"><img class="alignnone size-full wp-image-39141" alt="62 ict 뇌파 응급호출시스템 (4)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-4.png" width="620" height="383" /></a></p>
<p>측정기를 이용한 뇌파 기반 호출 시스템의 구성도는 다음과 같다. 상황에 따라 측정기와 호출 서버 사이에 존재하는 라즈베리파이는 일반 사용자 컴퓨터로 대체할 수 있다.<br />
라즈베리파이와 사용자가 착용한 측정기는 블루투스 통신을 통해 연결되며 연결이 완료되었을 시 측정기는 사용자의 전두엽으로부터 나오는 EEG 신호를 측정하여 연결된 기기로 송신한다. 본 데이터를 수신받은 라즈베리파이 기기는 딥러닝 모델 중 가장 정확도가 높은 MLP 기반으로 학습된 모델에 의해 해당 EEG 신호를 판별(예측)하게 되며 해당 신호가 호출 상황(응급)인 경우 AWS EC2에 올라가 있는 뇌파 호출 서버로 Http Request를 전송한다.<br />
AWS EC2에는 Django Framework 기반 뇌파 호출 서버와 데이터를 관리하는 MySQL로 이루어져 있다. MySQL에는 피호출자 클라이언트(어플리케이션)의 정보와 호출자 클라이언트(측정기)의 정보가 저장된다.<br />
본 서버는 어플리케이션에 푸시 방식의 알람 메시지를 전송하기 위해 Google Firebase 클라우드를 이용한다. 따라서 서버가 호출자의 호출 요청을 수신받았을 때 연결된 Firebase 클라우드로 피호출자의 토큰 값을 전송해 해당 어플리케이션에 푸시 알람을 전송한다.</p>
<p><strong>3.3.3. DB 다이어그램</strong><br />
호출에 필요한 호출자의 정보(기기 MAC address 및 이름)과 피호출자의 정보(토큰, 이름)을 효율적으로 관리하고 관계성을 정의하기 위해 데이터베이스는 MySQL을 사용한다. 각 테이블의 세부 역할은 다음과 같다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-5.png" rel="lightbox[39136]"><img class="alignnone size-full wp-image-39142" alt="62 ict 뇌파 응급호출시스템 (5)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-5.png" width="620" height="373" /></a></p>
<p>ⅰ) EEG 테이블<br />
호출을 지시할 측정기 기기의 MAC 주소와 사용자의 이름을 등록 및 관리</p>
<p>ⅱ) callee 테이블<br />
피호출자의 어플리케이션 정보 및 FCM 토큰을 저장</p>
<p>ⅲ) call 테이블<br />
EEG 테이블과 callee 테이블 간 호출 관계성을 정의</p>
<p><span style="color: #33cccc"><strong>3.4. 개발 환경</strong></span><br />
OS : 라즈베리파이3(라즈비안), 우분투(AWS EC2), 윈도우<br />
개발 언어 : python 3.6, java<br />
개발 툴 : jupyter notebook, android studio, pycharm, git, MySQL<br />
오픈소스 : OpenCV, Firebase, Keras, Tensorflow, Django<br />
디바이스 : Neurosky사 Mindwave Mobile2</p>
<p><span style="color: #0000ff"><strong>4. 단계별 제작 과정</strong></span><br />
<span style="color: #33cccc"><strong>4.1. 측정기와 블루투스 통신을 이용한 사용자 뇌파(EEG) 탐지</strong></span><br />
본 프로젝트의 뇌파(EEG) 탐지 방법은 다음과 같다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-6.png" rel="lightbox[39136]"><img class="alignnone size-full wp-image-39143" alt="62 ict 뇌파 응급호출시스템 (6)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-6.png" width="620" height="386" /></a></p>
<p>측정기의 데이터 전송방식은 BLE 4.0을 이용하기 때문에, 측정기와 서버를 중계할 Ubuntu와 Python Bluetooth 연결을 시도한다. 측정기의 블루투스가 Advertising(외부에 자신의 존재를 알리는 기능)은 안정적이지만 Connection(두 블루투스 장치 간 연결을 하는 것)은 불안정한 편이라 연결이 성공할 때까지 그림9와 같이 대략 3~4번의 재시도가 발생한다. 성공하면 측정기와 Ubuntu Linux를 페어링(Pairing)하여 측정된 뇌파를 파형의 종류에 따라 분류하는 결과로 나타난다. 뇌파 수신이 안정적이라면 이후부터 응급호출 상황과 평소 상황을 가정하여 각각 데이터를 측정, 수집한다.</p>
<p><span style="color: #33cccc"><strong>4.2. 뇌파 데이터 수집 및 BCI 알고리즘을 이용한 뇌파 분석</strong></span><br />
<strong>· 데이터 수집</strong><br />
두피에 전극을 배치하기 위한 다양한 시스템이 있다. 연구 목적으로 가장 널리 사용되는 시스템은 21개의 전극으로 구성된 10/20 시스템이다. 눈과 코 사이의 영역은 nasion 영역이고, 머리 뒤에서 두개골의 가장 낮은 지점의 영역은 inion 영역이다. Fig. 10은 10/20 시스템에서 전극의 위치를 보여준다[4]. 해당 프로젝트에서 이용한 측정기기는 위에서 언급한 Mindwave Mobile2이다. 해당 기기는 머리에 헤드셋처럼 낀 뒤에 전극이 붙은 날개 부분을 이마 위에 대고, 그 뒤에 걸린 집게를 귀에 집는 형식으로 되어있다. 이는 그림10과 같이 10/20 시스템에 따라 Fp1, A1 위치의 전극을 이용하여 뇌파를 비침습형 방식(non-invasive)으로 측정한다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-7.png" rel="lightbox[39136]"><img class="alignnone size-full wp-image-39144" alt="62 ict 뇌파 응급호출시스템 (7)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-7.png" width="620" height="375" /></a></p>
<p>데이터의 수집을 위해 23, 24세의 성인 남성 2명이 프로젝트의 실험자로 진행되었다. 실험자들이 실험에 자발적으로 참여했으며 그들 각자의 동의하에 진행되었다. 응급 상황을 위해, 실험자 2명은 약 1분간 여러 번 기록한 영상이나 공포영화를 보거나 응급 상황을 상상하면서 응급 시 호출 뇌파를 측정하였다. 평상시 상황을 위해, 실험자 2명은 약 10분간 여러 번 게임, 수면, 음식물 섭취 등의 위급하지 않은 상황에서 뇌파를 측정하였다. 측정된 응급상황 뇌파와 평상시 뇌파의 수는 기계학습의 정확도를 위하여 만개 이상이 되도록 하였다.</p>
<p><strong>· 전처리 단계</strong><br />
위에서 언급한 비침습형 방식은 간편하지만 수집한 데이터의 정확도가 떨어지는 단점이 있다. 하지만, 이 문제는 측정기 내부의 알고리즘으로 불필요한 신호를 높은 수준으로 걸러낼 수 있게 되었다. 측정기로 뇌파를 측정한 후 더 정확한 데이터의 수집을 위해 해당 프로젝트에서는 유효한 뇌파만 검출하여 데이터 형식을 csv로 가공하였다. 측정기에서 측정된 rawdata는 각 delta, theta, lowAlpha, highAlpha, lowBeta, highBeta, lowGamma, midGamma, meditation, 그리고 Attention 총 10개의 column으로 구분되어 매 초마다 출력된다. 추가적으로 눈 깜박임도 측정되지만, 이를 기록했을 경우 rawdata가 1초가 아닌 3초마다 출력되기 때문에 정확도가 오히려 낮아질 수 있다고 판단되어 측정에 고려하지 않았다. 이때 응급상황일 경우 meditation과 attention이 0일 때를 모두 제거하고 0이 아닌 데이터만 csv로 받아와 train, test data를 생성했다. 측정하고 전처리 된 평상시 데이터와 응급상황 데이터는 다음과 같다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-8.png" rel="lightbox[39136]"><img class="alignnone size-full wp-image-39145" alt="62 ict 뇌파 응급호출시스템 (8)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-8.png" width="620" height="226" /></a></p>
<p><strong>· 특징정보 추출 단계</strong></p>
<p>특징을 추출하기 위해 몇 가지 통계 도구를 사용했다. 코드에서 이들을 구현하기 위해 scikit-learn, tensorflow 등의 python 라이브러리를 사용하여 분류를 위해 10개의 column으로 이루어진 데이터셋을 가공하였다. 다음 Scaler는 뇌파신호의 통계적 특징을 계산하는 데 사용된다.</p>
<p style="text-align: center"><span style="font-family: 'arial black', 'avant garde'">RobustScaler</span></p>
<p>10개의 column을 가진 각각의 데이터들이 같은 scale을 갖게 되지만, 평균과 분산 대신 중앙값(median absolute deviation)과 사분위 값(interquartile range)을 사용한다. 따라서 기존 평균, 표준편차를 이용한 scaler와 달리 측정 에러(이상값)의 영향을 받지 않는다. 즉, 중앙값(MAD)이 0, 사분위 값(IQR)이 1이 되도록 변환한다[5].</p>
<p><em>i ) Interquartile Range(IQR)</em><br />
IQR은 은 데이터 세트를 사분위수로 나누는 것을 기반으로 하는 변수 측정 방법이다. 사분위수는 정렬된 데이터셋을 4개의 동일한 부분으로 나눈다. 분리된 분위 값을 각각 1사분위, 2사분위, 3사분위라고 한다. 그것들은 각각 Q1, Q2 및 Q3으로 표시된다. 75 분위수와 25 분위수 사이의 차이 또는 상한과 하한 사이의 차이와 같다. 식은 다음과 같다[6].</p>
<p style="text-align: center"><span style="font-family: 'arial black', 'avant garde'">IQR = Q3 &#8211; Q1</span></p>
<p><em> ii ) Median(MAD)</em><br />
중앙값은 상위 절반을 데이터 샘플의 하위 절반, 모집단 또는 확률 분포와 구분하는 값이다. 즉, 어떤 주어진 값들을 크기의 순서대로 정렬했을 때 가장 중앙에 위치하는 값을 의미한다. 확률 분포에서, 실수 m이 다음 식을 만족할 경우 그 값을 확률분포 P의 중앙값이라고 정의한다. 식은 다음과 같다[7].</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-9.png" rel="lightbox[39136]"><img class="size-full wp-image-39146 aligncenter" alt="62 ict 뇌파 응급호출시스템 (9)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-9.png" width="394" height="63" /></a></p>
<p><strong>· 분류 단계</strong><br />
해당 프로젝트에서는 MLP(DNN), SVM, CNN 세 종류 방식의 머신러닝 알고리즘을 이용하여 뇌파를 훈련했다. 각 머신러닝 알고리즘을 이용한 데이터의 정확도는 다음과 같다. 3가지 머신러닝 알고리즘을 사용한 이유는 더 정확도가 높은 머신러닝 알고리즘을 프로젝트에 적용하기 위함이다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-10.png" rel="lightbox[39136]"><img class="alignnone size-full wp-image-39147" alt="62 ict 뇌파 응급호출시스템 (10)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-10.png" width="620" height="584" /></a></p>
<p>초기 SVM 알고리즘을 이용한 데이터를 실험했을 때 60%정도로 정확도가 낮았으나 이후 함수에 대한 다양한 변수값의 변화를 줌으로써 80%대까지 끌어올릴 수 있었다. 그러나 더 정확한 테스트를 위해 CNN, MLP 알고리즘을 추가 적용하였다. 그 결과 MLP가 약 95%의 정확도를 선보여 최종적으로 해당 프로젝트에 MLP 알고리즘을 적용할 수 있게 되었다. 추후 응급 상황뿐만이 아닌 다양한 상태의 뇌파를 판단할 때 이외의 알고리즘도 적용할 수 있다는 여지를 남겨두었다.</p>
<p><strong>·피드백 과정</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-11.png" rel="lightbox[39136]"><img class="alignnone size-full wp-image-39148" alt="62 ict 뇌파 응급호출시스템 (11)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-11.png" width="620" height="290" /></a></p>
<p>이후 csv로 저장된 뇌파를 훈련한 알고리즘을 h5 형태의 파일로 저장하여 Ubuntu에서 받아오는 뇌파에 즉석으로 적용할 수 있도록 하였다. 훈련된 데이터를 측정한 동일한 실험자에게 먼저 이 알고리즘을 적용한 결과, 정확도 높은 응급호출을 할 수 있었다. 데이터를 측정하지 않은 다른 실험자에게도 알고리즘을 적용해 응급호출상황을 가정해 실험해보았더니 이 또한 높은 정확도로 결과를 도출해낼 수 있었다.</p>
<p><span style="color: #33cccc"><strong>4.3. Django 서버 프레임워크와 MySQL을 이용한 뇌파 호출 (메세징) API 서버 구현</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-4.png" rel="lightbox[39136]"><img class="alignnone size-full wp-image-39141" alt="62 ict 뇌파 응급호출시스템 (4)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-4.png" width="620" height="383" /></a></p>
<p>높은 생산성과 머신러닝 라이브러리와의 지원과 같은 이유로 서버는 파이썬 Django 프레임워크를 선택하여 개발하였다. 측정기기의 MAC 주소와 피호출자 어플리케이션의 FCM 토큰값을 저장하기 위한 데이터베이스로는 MySQL을 사용하여 구현하였다.<br />
만약 사용자의 특정 뇌파 패턴(호출 상황)이 감지된 경우 서버에 호출 요청을 하게 되고 서버는 해당 기기의 MAC주소와 연결되어있는 모든 클라이언트에게 FCM(Firebase Clout Message)를 통해 푸시 알람을 보내주게 된다.</p>
<p><span style="color: #33cccc"><strong>4.4. 안드로이드 어플리케이션과 Firebase Cloud Message를 이용한 푸시 알람</strong></span></p>
<p><span style="color: #33cccc"><strong><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-13.png" rel="lightbox[39136]"><img class="alignnone size-full wp-image-39150" alt="62 ict 뇌파 응급호출시스템 (13)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-13.png" width="620" height="322" /></a></strong></span></p>
<p>사용자 어플리케이션의 효과적인 푸시 알람을 구현하기 위해 구글 Firebase를 이용하였다. 안드로이드 어플리케이션 구동 시 사용자는 Firebase로부터 토큰값을 할당받는다. 해당 토큰값을 뇌파 호출 서버에 등록하기 위해 어플리케이션 첫 실행 시 사용자는 개인의 식별 ID와 함께 토큰값을 서버에 전달하게 된다.<br />
서버가 정상적으로 토큰을 DB에 저장했을 경우 사용자의 어플리케이션 로컬 스토리지(SharedPreference)에 해당 값을 기록하여 토큰이 서버에 저장되어 있음을 명시한다.<br />
안드로이드 서비스 컴포넌트를 이용하여 어플리케이션은 Firebase로 부터 백그라운드 상황에서 푸시 알람을 받을 수 있으며 해당 경우 호출자의 이름과 함께 “호출하였습니다.” 메시지를 출력하게 된다.</p>
<p><span style="color: #0000ff"><strong>5. 기타</strong></span><br />
<span style="color: #33cccc"><strong>5.1. 결론</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-14.png" rel="lightbox[39136]"><img class="alignnone size-full wp-image-39151" alt="62 ict 뇌파 응급호출시스템 (14)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-뇌파-응급호출시스템-14.png" width="620" height="322" /></a></p>
<p>본 프로젝트를 통해 응급 뇌파 호출을 위한 서버 시스템 및 통신 호출 관계를 정의하고 구축하였으며 뇌파 분석을 위한 알고리즘을 설계하였다. 실험 결과, 응급 상황 시에는 Meditation 및 Attention 수치가 일정 수준의 값을 보이는 것을 확인하였으며 이를 이용하여 정확한 알고리즘을 설계할 수 있었다. 이와 같은 뇌파 분석결과를 이용하여 의료분야뿐 아니라 게임 및 산업체 등 다양한 방면으로 뇌파 분석 시스템을 활용할 수 있다. 향후 연구 방향으로 더욱 다양한 상태의 뇌파 형태를 분석, 가공하여 4차 산업혁명의 시대에 맞는 다양한 뇌파 서비스를 제공하고자 한다.</p>
<p><span style="color: #33cccc"><strong>5.2. 소스코드</strong></span><br />
<a href="https://github.com/Below0/EEG-Communication" target="_blank">https://github.com/Below0/EEG-Communication</a>에서 확인할 수 있다.</p>
<p><span style="color: #33cccc"><strong>5.3. 참고 문헌</strong></span><br />
[1] 조용환(2019.3.19.). 브레인 Vol.74, 10대 유망기술 BCI, 핵심은 ‘뇌파’. Retrieved from https://www.brainmedia.co.kr/BrainEducation/20968<br />
[2] 김들풀(2019.2.6.). it뉴스, 뇌파를 음성으로 변환…BCI기술 구현. Retrieved from. http://www.itnews.or.kr/?p=29994<br />
[3] 김귀정, 한정수 (2015). 뇌파를 이용한 BCI 게임 동향 고찰, 디지털융복합연구, 13:6, 178-179, 잠재적 사용자 대상 뇌-기계 인터페이스 (Brain-Machine Interface, BMI) 기술 개발을 위한 수요조사 (한국직업재활학회, 2014), 5-25에서 재인용.<br />
[4] Max Roser, Esteban Ortiz-Ospina, Hannah Ritchie (2019). Life Expectancy. Retrieved from https://ourworldindata.org/life-expectancy<br />
[5] Omid Bazgir, Zeynab Mohammadi, Seyed Amir Hassan Habibi (2018). &#8220;Emotion Recognition with Machine Learning Using EEG Signals.&#8221; 2018 National and 3rd International Iranian Conference on Biomedical Engineering (ICBME). IEEE 25: 1-5. Retrieved from https://arxiv.org/abs/1903.07272.<br />
[6] V. Jurcak, D. Tsuzuki, and I. Dan. (2007) “10/20, 10/10, and 10/5 systems revisited: their validity as relative head-surface-based positioningsystems.”Neuroimage34(4): 1600-1611.<br />
[7] 데이터 사이언스 스쿨(2016). scikit-learn의 전처리 기능. Retrieved from https://datascienceschool.net/view-notebook/f43be7d6515b48c0beb909826993c856/<br />
[8] Wikipedia. Interquartile Range(IQR), Retrieved from, https://en.wikipedia.org/wiki/Interquartile_range<br />
[9] Wikipedia, Median(MAD), Retrieved from, https://en.wikipedia.org/wiki/Median<br />
[10] 한국콘텐츠진흥원(2011.3.). 문화기술(ICT) 심층리포트 12호:BCI 기술동향, Retrieved from https://www.kocca.kr/knowledge/publication/ct/__icsFiles/afieldfile/2011/03/24/HrswSxQXZXsO.pdf<br />
[11] Akbari, H., Khalighinejad, B., Herrero, J.L. et al. Towards reconstructing intelligible speech from the human auditory cortex. Sci Rep 9, 874 (2019). https://doi.org/10.1038/s41598-018-37359-z<br />
[12] &#8220;SVM using Scikit-Learn in Python.&#8221; learn opencv. n.d. 수정, Retrieved from https://www.learnopencv.com/svm-using-scikit-learn-in-python/.Scikit-learn: Machine Learning in Python, Pedregosa et al., JMLR 12, pp. 2825-2830, 2011.</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.ntrexgo.com/archives/39136/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>[62호]자동시스템과 원격 제어 앱을 갖춘 버스용 창문</title>
		<link>http://www.ntrexgo.com/archives/39100</link>
		<comments>http://www.ntrexgo.com/archives/39100#comments</comments>
		<pubDate>Thu, 22 Oct 2020 00:00:24 +0000</pubDate>
		<dc:creator>디바이스마트 매거진</dc:creator>
				<category><![CDATA[디바이스마트 매거진]]></category>
		<category><![CDATA[특집]]></category>
		<category><![CDATA[62호]]></category>
		<category><![CDATA[ict]]></category>
		<category><![CDATA[공모전]]></category>
		<category><![CDATA[디바이스마트]]></category>
		<category><![CDATA[매거진]]></category>
		<category><![CDATA[수상작]]></category>
		<category><![CDATA[프로젝트]]></category>

		<guid isPermaLink="false">http://www.ntrexgo.com/?p=39100</guid>
		<description><![CDATA[디바이스마트매거진 62호 &#124; 버스 천장에 미세먼지 센서와 빗물 센서를 부착하였고, 센서에서 인식한 값을 버스 기사가 편리하고 쉽게 알 수 있도록 어플을 개발하였다.]]></description>
				<content:encoded><![CDATA[<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-1.png" rel="lightbox[39100]"><img class="alignnone size-large wp-image-39104" alt="62 ict 자동 버스창문 (1)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-1-620x178.png" width="620" height="178" /></a></p>
<p><strong>2020 ICT 융합 프로젝트 공모전 우수상</strong></p>
<p><span style="font-size: x-large"><strong>자동시스템과 원격 제어 앱을 갖춘 버스용 창문</strong></span></p>
<p><strong>글 | 국민대학교 구창진, 박지호, 임성현, 최형종</strong></p>
<p>&nbsp;</p>
<p><span style="color: #0000ff"><strong>1. 심사평</strong></span><br />
<strong>칩센</strong> 기술을 논하자면 모터 제어를 통한 슬라이드 창문 개폐기 정도로 요약이 가능할듯 합니다. 하지만, 특정한 목표를 가지고 있고 그것이 필요한 이유에 대한 기획의도가 명확합니다. 또한, 그 기획의 타당성 또한 실제 수요층을 대상으로 수요 조사까지 이루어진 주제입니다. 많은 사람이 기능이 단순한 것은 문제가 아니라는 것, 그리고 그 기술이나 기능이 어떻게 쓰여질지 아는 것 또한 분명 중요한 포인트라는 것을 간과하는 경우가 있는데 지원자는 그 부분에 대하여 명확하게 짚어 낸 듯 합니다. 여러 상황에 대한 시연 동영상 또한 심플하지만, 제작 의도를 명확하게 보여주었습니다. 따로 흠잡을 것이 없지만, 창문이 열리고 닫히는 반응이 좀 느린 듯 한데 뭐가 원인일까 궁금해지기는 합니다.<br />
<strong>펌테크</strong> 기획구성부터 제작과정을 포함해 사전 설문조사까지 시행하는 꼼꼼함이 반영된 실용적인 작품이라고 생각합니다. 제출된 보고서의 내용도 명확했고, 제품완성도 면에서 우수한 작품이라고 판단됩니다.<br />
<strong>위드로봇</strong> 버스의 창문을 공기 질에 따라 자동으로 여닫는 아이디어는 좋으나 구현한 방법의 기대효과는 떨어집니다. 좀 더 다른 방법의 구현 아이디어가 필요합니다.</p>
<p><span style="color: #0000ff"><strong>2. 개요</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-2.png" rel="lightbox[39100]"><img alt="62 ict 자동 버스창문 (2)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-2.png" width="613" height="397" /></a></p>
<p>버스 외부의 미세먼지와 우천 시 빗물 유입을 자동 센서로 막겠다는 목적으로 작품 개발을 시작하였다. 우리 팀의 작품명은 ‘자동시스템과 원격제어 앱을 갖춘 버스용 창문’이다.<br />
우리 팀이 해결하려는 문제점은 대중 버스의 창문이 열려있고, 그 좌석이 공석일 때 창문을 닫아줄 사람이 없다는 것이다. 이와 같은 문제 때문에 우천 시 빗물과 미세먼지의 유입에 대한 불만, 경제적 비효율, 불편리함 등을 줄이려고 이 작품을 만들게 되었다.<br />
대중 버스 이용 중에 문제점의 실태를 파악하고, 그 문제점을 ICT 기술을 통해 해결하려 했다. 현재 우리나라 미세먼지의 위험성의 급증에 따른 피해를 최소화하기 위한 기술이다. 버스 천장에 미세먼지 센서와 빗물 센서를 부착하였고, 센서에서 인식한 값을 버스 기사가 편리하고 쉽게 알 수 있도록 어플을 개발하였다. 미세먼지 농도를 이미지로 표현하여 버스 기사가 앱을 통해 원격으로 제어할 수 있다.<br />
대중 버스 창문 개방의 문제점과 이에 대한 해결책인 원격 제어 창문에 대한 대중의 인식을 버스기사와 승객한테 직접 설문조사하여 파악했다. 문제점을 자세히 알기 위해 관련 기사를 참고하였다. 원격 제어 창문의 기대효과의 설문 조사 결과가 매우 긍정적임을 보았을 때 기술의 효율성과 긍정성이 상당히 높다고 판단하였다.</p>
<p><span style="color: #00ccff"><strong>2.1 작품의 필요성</strong></span><br />
<span style="color: #33cccc"><strong>2.1.1 미세먼지</strong></span><br />
<strong>2.1.1.1 심각성</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-3.png" rel="lightbox[39100]"><img class="alignnone size-full wp-image-39107" alt="62 ict 자동 버스창문 (3)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-3.png" width="609" height="163" /></a></p>
<p>미세먼지는 인체에 매우 유해하다. 위의 기사에 따르면, 세계보건기구(WHO)가 ‘2019년 건강을 위협하는 10대 요인’의 첫 번째로 ‘대기오염과 온난화’를 꼽았는데 이 대기오염을 유발하는 미세먼지를 ‘1군 발암물질’로 분류하고 있다. 미세먼지는 암, 치매, 우울증 등 많은 병을 유발하고 미세먼지 때문에 이른 나이에 사망하는 인구가 세계적으로 연간 700만 명에 달한다고 한다. 이는 흡연으로 인한 사망자보다 많은 수이다. 이런 미세먼지를 우리는 더 이상 간과해서 안 되며, 심각성을 인지하고 대비해야 한다. 또한 미세먼지에 대한 뉴스의 보도는 약 3시간을 간격으로 발표될 만큼 상당히 민감한 문제임을 확인할 수 있다.</p>
<p><strong>2.1.1.2 미세먼지에 대한 대중 버스의 취약점</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-4.png" rel="lightbox[39100]"><img class="alignnone  wp-image-39108" alt="62 ict 자동 버스창문 (4)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-4.png" width="232" height="236" /></a></p>
<p>창문이 열려있는 공석에서의 미세먼지 유입이 버스 내부의 미세먼지 농도를 높이는 주요 원인이다. 공석 자리의 창문 개방을 확인하기 위해 총 45번의 버스를 이용하였고(기간 :2020.02.15.~2020.03.27.), 총 24번 이러한 상황을 목격하였다. 열려있을 확률은 53.3%로 꽤 높다는 것을 확인하였다.</p>
<p><strong>2.1.1.3 미세먼지에 대한 대중의 시선</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-5.png" rel="lightbox[39100]"><img class="alignnone  wp-image-39109" alt="62 ict 자동 버스창문 (5)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-5.png" width="494" height="234" /></a></p>
<p><strong>2.1.1.4 미세먼지에 대한 설문조사 (대상 : 버스기사)</strong><br />
총 3일간 버스 기사님 43명을 직접 만나 설문조사하였습니다.<br />
버스 창문 설문지 결과 조사 미세먼지와 빗물의 유입으로 인해서 불편한 점이 많고, 이 문제를 해결해야 할 필요성을 느끼게 되었다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-1.jpg" rel="lightbox[39100]"><img class="alignnone  wp-image-39103" alt="62 ict 자동 버스창문 (1)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-1.jpg" width="284" height="414" /></a></p>
<p><span style="color: #33cccc"><strong>2.1.2. 고속버스</strong></span><br />
<strong>2.1.2.1. 고속버스의 특성</strong><br />
고속버스는 안전성, 소음 최소화, 연료 효율성을 위해 통유리를 사용한다. 통유리를 사용하지 않으면 승객이 창문을 열 수 있고, 위에 적은 다양한 문제가 발생할 것이다. 통유리를 사용하기 때문에 고속버스 내부를 청소한다거나 저속 주행 시에 내부 환기 시스템에만 의존해야 한다.</p>
<p><strong>2.1.2.2. 통유리의 불이익과 해결방안</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-6.png" rel="lightbox[39100]"><img class="alignnone  wp-image-39110" alt="62 ict 자동 버스창문 (6)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-6.png" width="549" height="151" /></a></p>
<p>통유리가 아닌 자동 창문을 사용하게 되면 승객들의 자의적인 창문을 열고 닫음을 방지할 수 있으며, 통유리 구조가 아닌 개·폐형 창문을 사용할 수 있게 된다. 또한 저속 주행을 할 때, 차량 내부를 청소할 때 창문을 열 수 있다.</p>
<p><strong>2.2. 기술 도입에 따른 기대 효과</strong><br />
<span style="color: #888888"><strong>① 편리성</strong></span><br />
자동 창문 시스템으로 인하여 공석의 열려있는 창문을 불편하다고 생각하는 누군가가 대신해서 닫아야 하거나, 열려있는 상태 그대로 미세먼지가 버스 내부로 유입되는 것을 방지할 수 있다.</p>
<p><span style="color: #888888"><strong>② 만족감</strong></span><br />
미세먼지 방지의 기술을 탑재함으로써 버스 내 미세먼지를 저감해 승객들의 만족감을 올려줄 수 있다. 위 기술의 도입으로 인해 대중버스에 대한 신뢰성이 높아질 것이다.</p>
<p><span style="color: #888888"><strong>③ 경제성</strong></span><br />
원격 제어 앱을 통해 창문을 한 번에 열고 닫아 냉, 난방 손실을 줄이고 에너지 효율을 높일 수 있다. 고속버스가 고속 주행할 때 창문을 한 번에 닫아 공기저항을 줄여서 연비 효율을 높일 수 있다.</p>
<p><strong>3. 작품 설명</strong><br />
<strong><span style="color: #00ccff">3.1. 주요 동작 및 특징</span> </strong><br />
<span style="color: #33cccc"><strong>3.1.1. 앱을 통한 주요 동작 및 특징</strong></span></p>
<table style="width: 620px" border="0" cellspacing="0" cellpadding="0">
<tbody>
<tr>
<td><a style="font-family: Georgia, 'Times New Roman', 'Bitstream Charter', Times, serif;font-size: 13px" href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-7.png" rel="lightbox[39100]"><img class="alignnone  wp-image-39111" alt="62 ict 자동 버스창문 (7)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-7.png" width="395" height="354" /></a></td>
<td>ⓐ 미세먼지, 빗물 센서에서 받아온 데이터를 아두이노 A0, A1번 핀 으로 받는다.<br />
ⓑ 이렇게 받아온 미세먼지 값을 실제 기상청 기준에 맞는 값으로 변경시켜 준다.<br />
ⓒ 환경부에서 제공하는 총 4단계 기준에 따라 dust_standard 값을 ‘좋음’=0 , ‘보통’=1, ‘나쁨’=2,‘매우나쁨’=3으로 설정하였다. 여기서 dust_standard 값이 총 5가지 경우로 나타냈다. 만약 미세먼지 센서가 인식중이라면 -1을 가지게 설정했다.<br />
ⓓ 이렇게 얻은 dust_standard 값을 블루투스를 이용하여 값을 app으로 보내준다.<br />
ⓔ 이 값에 따라 app에서 사용자에게 미세먼지의 등급을 그림으로 보여준다.<br />
ⓕ rain_value의 값은 따로 변경시켜주지 않고 , 센서를 통해 받아온 값을 블루투스를 이용하여 app으로 보내 ‘빗물 센서 값’에 나타냈다.</td>
</tr>
</tbody>
</table>
<p><strong style="color: #33cccc">3.1.2. 센서 값에 따른 모터의 주요 동작 및 특징</strong></p>
<p>&nbsp;</p>
<table style="width: 620px" border="0" cellspacing="0" cellpadding="0">
<tbody>
<tr>
<td><a style="font-family: Georgia, 'Times New Roman', 'Bitstream Charter', Times, serif;font-size: 13px" href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-8.png" rel="lightbox[39100]"><img class="alignnone  wp-image-39112" alt="62 ict 자동 버스창문 (8)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-8.png" width="397" height="334" /></a></td>
<td>ⓐ 각 센서로 부터 받아온 값을 motor_run() 함수의 case 0번 조건문으로 들어간다.<br />
ⓑ 환경부에서 제공한 미세먼지의 ‘나쁨’ 등급이거나 , 빗물 센서의 값이 60 이하 일 때 창문이 닫힌다. 또한 미세먼지 80 이하 이고 빗물 센서의 값이 60 이상인 조건을 둘 다 만족하면 모터의 동작을 멈춘다. 그 이외의 경우에는 창문이 열린다.<br />
ⓒ 모터를 구동하는 시간을 설정하기 위해 motor_check가 1일 때만 구동하게 설정했다. 이 motor_check는 timer를 6초 이하일 때만 1이 되게 설정했다. 여기서 6초로 설정한 이유는 직접 렉과 피니언을 구동시키면서 창문이 완전히 닫히고 열릴 때의 시간이다.</td>
</tr>
</tbody>
</table>
<p>&nbsp;</p>
<p><span style="color: #33cccc"><strong>3.1.3. app 버튼에 따른 모터의 주요 동작 및 특징</strong></span></p>
<table style="width: 620px" border="0" cellspacing="0" cellpadding="0">
<tbody>
<tr>
<td><img class="alignnone size-large wp-image-39113" alt="62 ict 자동 버스창문 (9)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-9-301x620.png" width="301" height="620" /></td>
<td>ⓐ app에서 제공하는 버튼은 총 3개이며 open, close, stop이 있다.<br />
ⓑ open은 ‘a’, close는 ‘b’, stop은 ‘c’를 나타낸다.<br />
ⓒ 각 버튼을 눌렀을 시, 버튼에 해당하는 값을 블루투스를 통해 아두이노로 보내준다.<br />
ⓔ 이렇게 얻어온 값은 bluetoothh()함수를 통해 motor_run()함수로 값을 보내준다.<br />
ⓕ ‘a’가 입력되면 case4, ‘b’가 입력되면 case5, ‘c’가 입력되면 case3로 이동하게 된다.<br />
ⓖ case4와 case5에선 case1과 case2로 이동하게 된다. case 1번과 2번으로 바로 넘어가지 않은 이유는 Timer2의 초기화 작업이 필요해서이다.<br />
ⓗ case1은 창문을 여는 방향, case2는 닫는 방향, case 3는 창문의 구동을 멈춘다.</td>
</tr>
</tbody>
</table>
<p><strong style="color: #00ccff">3.2. 전체 시스템 구성</strong></p>
<p><span style="color: #33cccc"><strong>3.2.1. HW</strong></span><br />
<strong>3.2.1.1. 하드웨어 구성</strong><br />
· 아두이노 보드 : 총 44개의 핀과 단자들로 구성되어 있고, 각 핀과 단자들은 아두이노와 다른 보드 또는 센서들의 제어에 이용할 수 있는 장비이다.<br />
· 구동 모터 : 헬리컬기어의 모터로써 다른 모터보다 출력이 상대적으로 높아 낮은 감속비일 때 더 높은 토크와 RPM을 낼 수 있다. 이 모터를 활용하여 창문을 닫고 여는데 실질적인 역할을 하는 구성요소이다.<br />
· 블루투스 HC-06 모듈 : 아두이노에서 시리얼통신을 이용하여 우리가 직접 만든 앱과 데이터 값을 주고받을 수 있는 모듈이며, 약 10m 정도 거리에서 무선으로 데이터를 보내거나 받을 수 있는 요소이다.<br />
· 모터 드라이버 (L298N) : 모터와 아두이노를 연결하는 모듈로써, 모터의 속도와 위치 제어를 할 수 있다. 또한 DC모터 2개 또는 스테핑 모터를 연결하여 제어가 가능하며, 입력전압은 여기선 5V를 이용하였다.<br />
· 빗물 센서 : 창문에 부착하여 비가 오는지 안 오는지 판단할 수 있게 하는 센서이다. 빗방울 감지 센서 기판의 전극부분이 물과 접한 면적이 클수록 저항 값이 작아지고, 흐르는 전류량이 상대적으로 커지게 된다.<br />
· 미세먼지 센서 : 대기 중의 미세먼지를 측정하는 센서로써, 직경 10마이크로 이하의 입자상 물질을 측정해 낸 다. 미세먼지 센서 안에는 적외선 센서가 포함되어, 적외선 수신기와 송신기가 먼지에 의해 반사되는 빛의 양을 파악해 입자를 감지하여 대기 중의 미세먼지를 측정한다.<br />
· 랙과 피니언 : CATIA 프로그램을 통해 3D 설계를 한 후 랙과 피니언 시뮬레이션을 거쳤다. 이에 3D 프린팅을 외주 작업을 거쳐 만들었다.<br />
· 각목, 골판지, 단프라박스, 아크릴판: 버스를 만드는 데에 쓰인 재료이다. 각목을 통해 창틀을 만들었고, 창문은 아크릴 판을 제작하여 만들었다. 골판지를 통해 차체 내부를 만들었으며 단프라 박스를 이용하여 차체의 카울을 만들었다.</p>
<p><strong>3.2.1.2 하드웨어 구조</strong><br />
<strong></strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-10.png" rel="lightbox[39100]"><img class="alignnone  wp-image-39114" alt="62 ict 자동 버스창문 (10)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-10.png" width="493" height="270" /></a></p>
<p><strong><span style="color: #33cccc">3.2.2 SW</span> </strong><br />
<strong>3.2.2.1 구성 및 각 함수별 기능</strong><br />
<span style="color: #888888"><strong>① 미세먼지 센서 함수 주요 기능</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-21.png" rel="lightbox[39100]"><img class="alignnone  wp-image-39125" alt="62 ict 자동 버스창문 (21)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-21-455x620.png" width="500" /></a></p>
<p><span style="color: #888888"><strong>② 빗물 센서 함수 주요 기능</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-22.png" rel="lightbox[39100]"><img class="alignnone  wp-image-39126" alt="62 ict 자동 버스창문 (22)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-22-620x202.png" width="500" /></a></p>
<p><span style="color: #888888"><strong>③ 블루투스 함수 주요 기능</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-23.png" rel="lightbox[39100]"><img class="alignnone  wp-image-39127" alt="62 ict 자동 버스창문 (23)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-23-620x442.png" width="500" /></a></p>
<p><span style="color: #888888"><strong>④ 모터 방향 및 속도제어</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-24.png" rel="lightbox[39100]"><img class="alignnone  wp-image-39128" alt="62 ict 자동 버스창문 (24)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-24-620x273.png" width="500" /></a></p>
<p><span style="color: #888888"><strong>⑤ 모터 타이머 설정하는 함수 주요 기능</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-25.png" rel="lightbox[39100]"><img alt="62 ict 자동 버스창문 (25)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-25-620x226.png" width="500" /></a></p>
<p><span style="color: #888888"><strong>⑥ 상황에 따른 모터 제어 함수의 주요 기능</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-26.png" rel="lightbox[39100]"><img class="alignnone  wp-image-39130" alt="62 ict 자동 버스창문 (26)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-26-524x620.png" width="500" /></a></p>
<p><span style="color: #33cccc"><strong>3.2.3. SW &#8211; App &#8211; Remote Control</strong></span><br />
<strong>3.2.3.1. 앱 화면</strong><br />
환경부의 기준에 맞게 분류하였다. 나쁨과 매우나쁨에서 자동화 시스템이 작동하며, OPEN, CLOSE, STOP으로 작동을 시킬 수 있다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-11.png" rel="lightbox[39100]"><img class="alignnone size-full wp-image-39115" alt="62 ict 자동 버스창문 (11)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-11.png" width="620" height="295" /></a> <a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-12.png" rel="lightbox[39100]"><img class="alignnone size-full wp-image-39116" alt="62 ict 자동 버스창문 (12)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-12.png" width="620" height="295" /></a></p>
<p><strong>3.2.3.2. 앱 개발</strong></p>
<p><span style="color: #888888"><strong>① 앱 설명</strong></span></p>
<table style="width: 620px" border="0" cellspacing="0" cellpadding="0">
<tbody>
<tr>
<td><img class="alignnone size-full wp-image-39117" alt="62 ict 자동 버스창문 (13)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-13.png" width="282" height="467" /></td>
<td>① 맨 왼쪽 위에 블루투스 설정을 할 수 있는 버튼을 생성해주었다.<br />
② 그 바로 아래에 가로로 나눠서 OPEN, CLOSE, STOP 버튼을 만들어 주었다. 다만, 수직 배치 레이아웃을 사용하여 왼쪽 사진에는 버튼이 보이지 않는다.<br />
③ 레이블1 : 아두이노에 연결한 미세먼지, 빗물 센서의 값을 블루투스 모듈을 통하여 앱에 전송해주는 칸이다.<br />
④ 레이블3 : 미세먼지 센서에 의한 측정값에 따라 ‘인식중’, ‘좋음’, ‘보통’, ‘나쁨’, ‘매우나쁨’을 표시해주도록 설계하였다.<br />
⑤ 이미지 : 사용자가 쉽고 빠르게 미세먼지 농도를 알아차릴 수 있도록 레이블 3 밑에 이미지가 같이 나타나게끔 사진을 첨부하였다.<br />
⑥ ‘보이지 않는 컴포넌트’ : ‘BluetoothClient1’ 과 ‘시계1’을 추가하였다. ‘BluetoothClient1’은 블루투스를 연결하기 위해 필요한 컴포넌트이고 ‘시계1’은 앱 내부에서 작동하는 시계로, 시간이 증가함에 따라 다음 센서 값을 받아오기 위해 필요한 컴포넌트이다.</td>
</tr>
</tbody>
</table>
<p>&nbsp;</p>
<p><span style="color: #888888"><strong>② 블루투스 연결</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-14.png" rel="lightbox[39100]"><img class="alignnone  wp-image-39118" alt="62 ict 자동 버스창문 (14)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-14.png" width="500" /></a></p>
<p>위 사진은 블루투스를 연결하기 위해 필요한 블록이다. ‘목록선택버튼1’이란 앱 디자인 사진에서 ‘블루투스 설정’ 버튼을 의미한다.<br />
① ‘목록선택버튼1’을 클릭하기 전 : 앱 상에 ‘블루투스 설정’이라고 나타나있다.<br />
② ‘목록선택버튼1’을 클릭한 후 : 연결 가능한 블루투스 기기들 목록이 표시된다. 아두이노의 블루투스 모듈(HC-06)을 선택하면 사용자의 기기와 이 시스템이 통신을 시작한다.</p>
<p><span style="color: #888888"><strong>③ 블루투스 기능 블록</strong></span></p>
<p><strong><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-15.png" rel="lightbox[39100]"><img class="alignnone size-full wp-image-39119" alt="62 ict 자동 버스창문 (15)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-15.png" width="333" height="301" /></a></strong><br />
① “Button1 = OPEN 버튼” 이 버튼을 누르면 Bluetooth로 아두이노에 a라는 값을 보내게 된다.<br />
② 이 값은 아두이노 소스코드의 ‘val’이라는 값에 저장된다.<br />
③ ‘val’은 소스코드의 조건문을 타고 모터를 구동 시키게 되고 창문을 열 수 있다.<br />
동일한 원리로 “Button2 = CLOSE(창문을 닫음)”, “Button3 = STOP(모터를 멈춤)” 기능을 한다.</p>
<p><strong>④ 센서에 따른 이미지 블록</strong></p>
<p><strong><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-16.png" rel="lightbox[39100]"><img class="alignnone  wp-image-39120" alt="62 ict 자동 버스창문 (16)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-16.png" width="500" /></a></strong><br />
미세먼지 센서 값과 그에 따른 이미지를 보여주는 블록이다. 시계1을 항상 활성화 시켜 놓고 타이머 간격은 1초로 설정하였다. 앱이 시작하자마자 앱 내의 시계가 작동하며, 1초 간격으로 위 조건문이 실행하게 된다.<br />
① 가장 우선순위가 높은 조건문은 ‘블루투스 연결이 되었는가’이다.<br />
② 연결이 되었다면 다음 조건문인 ‘블루투스로 받을 데이터가 0보다 큰 가’를 확인한다. 받을 데이터가 있다면 그 데이터를 레이블1에 표시해준다. 아두이노 코드를 통해 미세먼지 센서 값과 빗물 센서 값을 블루투스로 송신하도록 설계하였다.<br />
③ 블루투스로 송신한 값을 받기 위해 앱 자체적으로 지역 변수 ‘dust_standard’를 만들었다. 1바이트의 숫자데이터를 받는다. 이 값은 -1, 0, 1, 2, 3이 되는데 각 경우는 미세먼지 농도에 따른다.<br />
④ 텍스트와 이미지로 각 경우에 따라서 스마트폰 화면에 함께 나타내준다.</p>
<p><strong><span style="color: #00ccff">3.3. 개발 환경</span> </strong><br />
<span style="color: #33cccc"><strong>3.3.1. S.W 개발</strong></span><br />
개발 OS : Windows 10, 통합개발환경 : Arduino IDE, 개발 언어 : C언어</p>
<p><span style="color: #33cccc"><strong>3.3.2. H.W 개발</strong></span><br />
설계 프로그램 : CATIA, 제작 프로그램 : 3D Printing5</p>
<p><span style="color: #33cccc"><strong>3.3.3. 앱 개발</strong></span><br />
사용 OS : Android, 개발 프로그램 : MIT APP INVENTOR</p>
<p><span style="color: #0000ff"><strong>4. 단계별 제작 과정</strong></span><br />
<span style="color: #00ccff"><strong>4.1. 아이디어 구상</strong></span><br />
<span style="color: #00ccff"><strong>4.2. S/W 개발 및 설계</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-17.png" rel="lightbox[39100]"><img class="alignnone size-large wp-image-39121" alt="62 ict 자동 버스창문 (17)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-17-456x620.png" width="456" height="620" /></a></p>
<p><span style="color: #00ccff"><strong>4.3. H/W 설계 및 제작</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-2.jpg" rel="lightbox[39100]"><img class="alignnone size-large wp-image-39105" alt="62 ict 자동 버스창문 (2)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-2-456x620.jpg" width="456" height="620" /></a></p>
<p><span style="color: #00ccff"><strong>4.4. 조립 완성 및 기술 시연</strong></span></p>
<p><span style="color: #0000ff"><strong>5. 기타</strong></span><br />
<span style="color: #00ccff"><strong>5.1. 회로도</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-19.png" rel="lightbox[39100]"><img class="alignnone size-full wp-image-39123" alt="62 ict 자동 버스창문 (19)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-19.png" width="613" height="491" /></a></p>
<p><span style="color: #00ccff"><strong>5.2. 소스코드 </strong></span></p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>#include &lt;MsTimer2.h&gt;<br />
#include &lt;SoftwareSerial.h&gt;</p>
<p>#define BT_RXD 8<br />
#define BT_TXD 7<br />
SoftwareSerial bluetooth(BT_RXD, BT_TXD);</p>
<p>int dust_sensor = A0; // 미세먼지 핀 번호<br />
int Raindrops_pin = A1; // 빗방울센서 핀을 A1으로 설정<br />
int rain_value = 0; // 센서에서 입력 받은 빗물 값<br />
int dust_value = 0; // 센서에서 입력 받은 미세먼지 값<br />
int dustDensityug=0; // ug/m^3 값을 계산<br />
int sensor_led = 12; // 미세먼지 센서 안에 있는 적외선 led 핀 번호<br />
int sampling = 280;<br />
int waiting = 40;<br />
float stop_time = 9680; // 센서를 구동하지 않는 시간<br />
int Dir1Pin_A = 2; // 제어신호 1핀<br />
int Dir2Pin_A = 3; // 제어신호 2핀<br />
int SpeedPin_A = 10; // PWM제어를 위한 핀<br />
int Dir1Pin_B = 4; // 제어신호 1핀<br />
int Dir2Pin_B = 5; // 제어신호 2핀<br />
int SpeedPin_B = 11; // PWM제어를 위한 핀<br />
int Timer = 0;<br />
int Timer2 = 0;<br />
static int MOTER_DIR = 0; // 모터제동 bool<br />
static int motor_check = 0; // 모터 on/off</p>
<p>char dust_standard = 0;</p>
<p>void bluetoothh();<br />
void rain_sensor();<br />
void dust_sensorr();<br />
void motor_clock1();<br />
void motor_counterclock1();<br />
void motor_clock2();<br />
void motor_counterclock2();<br />
void motor_stop();<br />
void motor_run();<br />
void ISR_Timer();<br />
void Serial_print();<br />
void setup(){<br />
Serial.begin(9600); // 시리얼 모니터 시작, 속도는 9600<br />
pinMode(sensor_led,OUTPUT); // 미세먼지 적외선 led를 출력으로 설정<br />
pinMode(A1 , INPUT);<br />
pinMode(4, OUTPUT);<br />
pinMode(Dir1Pin_A, OUTPUT); // 제어 1번핀 출력모드 설정<br />
pinMode(Dir2Pin_A, OUTPUT); // 제어 2번핀 출력모드 설정<br />
pinMode(SpeedPin_A, OUTPUT); // PWM제어핀 출력모드 설정<br />
pinMode(Dir1Pin_B, OUTPUT); // 제어 1번핀 출력모드 설정<br />
pinMode(Dir2Pin_B, OUTPUT); // 제어 2번핀 출력모드 설정<br />
pinMode(SpeedPin_B, OUTPUT); // PWM제어핀 출력모드 설정<br />
MsTimer2::set(1000, ISR_Timer); //1000ms, ISR_Timer<br />
MsTimer2::start(); // Timer start<br />
bluetooth.begin(9600);<br />
}</p>
<p>void loop(){<br />
dust_sensorr();<br />
rain_sensor();<br />
motor_run();<br />
bluetoothh();<br />
Serial_print();</p>
<p>}<br />
void bluetoothh(){</p>
<p>if(bluetooth.available()){<br />
char val = bluetooth.read();<br />
Serial.write(bluetooth.read());<br />
if(val == &#8216;a&#8217;){<br />
MOTER_DIR=4;<br />
}<br />
if(val == &#8216;b&#8217;){<br />
MOTER_DIR=5;<br />
}<br />
if(val == &#8216;c&#8217;){<br />
MOTER_DIR=3;<br />
}<br />
}</p>
<p>if(Serial.available()) {<br />
bluetooth.write(Serial.read());<br />
}</p>
<p>bluetooth.print(dust_standard);<br />
bluetooth.print(&#8220;\n&#8221;);<br />
bluetooth.print(&#8220;미세먼지: &#8220;);<br />
bluetooth.print((dustDensityug+50));<br />
bluetooth.print(&#8220;[ug/m3] &#8220;);<br />
bluetooth.print(&#8220;\n빗물 센서값: &#8220;);<br />
bluetooth.print(analogRead(A1));</p>
<p>}</p>
<p>void rain_sensor(){<br />
rain_value = analogRead(Raindrops_pin);//빗물 값 읽어오기<br />
delay(1000);<br />
}<br />
void dust_sensorr(){<br />
digitalWrite(sensor_led, LOW); // LED 켜기<br />
delayMicroseconds(sampling); // 샘플링해주는 시간.<br />
dust_value = analogRead(dust_sensor); // 센서 값 읽어오기<br />
delayMicroseconds(waiting); // 너무 많은 데이터 입력을 피해주기 위해 잠시 멈춰주는 시간.<br />
digitalWrite(sensor_led, HIGH); // LED 끄기<br />
delayMicroseconds(stop_time); // LED 끄고 대기<br />
dustDensityug = (0.17 * (dust_value * (5.0 / 1024)) &#8211; 0.1) * 1000; // 미세먼지 값 계산<br />
delay(1000);<br />
if ((dustDensityug)&lt;0){<br />
dust_standard = -1; //인식중<br />
}<br />
else if ((dustDensityug&gt;=0) &amp;&amp; (dustDensityug&lt;30)){<br />
dust_standard = 0;<br />
}<br />
else if ((dustDensityug&gt;=30) &amp;&amp; (dustDensityug&lt;80)){</p>
<p>dust_standard = 1;<br />
}<br />
else if ((dustDensityug&gt;=80) &amp;&amp; (dustDensityug&lt;120)){<br />
dust_standard = 2;<br />
}<br />
else{<br />
dust_standard = 3;<br />
}</p>
<p>}</p>
<p>void motor_clock1(){ //창문 닫는 방향<br />
digitalWrite(Dir1Pin_A, HIGH); //모터가 시계 방향으로 회전<br />
digitalWrite(Dir2Pin_A, LOW);<br />
digitalWrite(SpeedPin_A, HIGH); //모터 속도를 최대로 설정<br />
delay(1000);<br />
}</p>
<p>void motor_counterclock1(){ //창문 여는 방향<br />
digitalWrite(Dir1Pin_A, LOW); //모터가 반시계 방향으로 회전<br />
digitalWrite(Dir2Pin_A, HIGH);<br />
digitalWrite(SpeedPin_A, HIGH); //모터 속도를 최대로 설정<br />
delay(1000);<br />
}<br />
void motor_clock2(){<br />
digitalWrite(Dir1Pin_B, HIGH); //모터가 시계 방향으로 회전<br />
digitalWrite(Dir2Pin_B, LOW);<br />
digitalWrite(SpeedPin_B, HIGH); //모터 속도를 최대로 설정<br />
delay(1000);</p>
<p>}<br />
void motor_counterclock2(){<br />
digitalWrite(Dir1Pin_B, LOW); //모터가 반시계 방향으로 회전<br />
digitalWrite(Dir2Pin_B, HIGH);<br />
digitalWrite(SpeedPin_B, HIGH); //모터 속도를 최대로 설정<br />
delay(1000);<br />
}</p>
<p>void motor_stop(){<br />
digitalWrite(SpeedPin_A, LOW);<br />
digitalWrite(SpeedPin_B, LOW);<br />
}</p>
<p>void motor_run(){<br />
switch (MOTER_DIR)<br />
{<br />
case 0:</p>
<p>if((rain_value &gt;60)&amp;&amp;(dustDensityug &lt; 80)&amp;&amp;motor_check == 1 ){<br />
motor_stop();<br />
}<br />
else if(((dustDensityug &gt; 80)|| (rain_value &lt; 60)) &amp;&amp; motor_check == 1)<br />
{<br />
motor_counterclock1();<br />
motor_counterclock2();<br />
}<br />
else{<br />
motor_clock1();<br />
motor_clock2();<br />
}<br />
break;</p>
<p>case 1:</p>
<p>if(Timer2&lt;4){<br />
motor_clock1();<br />
motor_clock2();<br />
}<br />
else{<br />
MOTER_DIR = 0;<br />
}<br />
break;</p>
<p>case 2:</p>
<p>if(Timer2&lt;4){<br />
motor_counterclock1();<br />
motor_counterclock2();<br />
}<br />
else{<br />
MOTER_DIR = 0;<br />
}<br />
break;</p>
<p>case 3:</p>
<p>motor_stop();<br />
MOTER_DIR = 0;<br />
break;</p>
<p>case 4:</p>
<p>Timer2=0;<br />
motor_stop();<br />
MOTER_DIR=1;<br />
break;</p>
<p>case 5:</p>
<p>Timer2 = 0;<br />
motor_stop();<br />
MOTER_DIR = 2;<br />
break;</p>
<p>default:<br />
break;<br />
}<br />
}</p>
<p>void Serial_print(){ // 시리얼 모니터에 미세먼지 값 출력<br />
Serial.print(&#8220;Dust Density [ug/m3]: &#8220;);<br />
Serial.print(dustDensityug);<br />
Serial.print(&#8220;\n&#8221;);<br />
Serial.println(analogRead(A1));<br />
Serial.println(MOTER_DIR);<br />
Serial.print(&#8220;Timer2 : &#8220;);<br />
Serial.println(Timer2);<br />
}</p>
<p>void ISR_Timer(){<br />
Timer++;<br />
Timer2++;<br />
if(Timer &gt; 4){<br />
Timer = 0;<br />
motor_check = 0;<br />
}<br />
motor_check = 1;<br />
}<br />
</div>
<p><span style="color: #00ccff"><strong>5.3. 제품도</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-20.png" rel="lightbox[39100]"><img class="alignnone size-full wp-image-39124" alt="62 ict 자동 버스창문 (20)" src="http://www.ntrexgo.com/wp-content/uploads/2020/10/62-ict-자동-버스창문-20.png" width="615" height="353" /></a></p>
<p><span style="color: #00ccff"><strong>5.4. 참고문헌</strong></span><br />
1. 기어 한국미스미, 기어 기술자료, file:///C:/Users/user/AppData/Local/Microsoft/Windows/INetCache/IE/8U9RBEK8/3010gijutu_kr.pdf<br />
2. IAMAMAKER, MIT APP INVENTOR 교육자료, http://www.iamamaker.kr/ko/tutorials/%EC%95%B1-%EC%9D%B8%EB%B2%A4%ED %84%B0-%EC%8B%9C%EC%9E%91%ED%95%98%EA%B8%B0/<br />
3. NAVER 지식 IN, 미세먼지 싫어요 검색, https://search.naver.com/search.naver?sm=top_hty&amp;fbm=0&amp;ie=utf8&amp;query=%EB%AF%B8%EC%84%B8%EB%A8%BC%EC%A7%80+%EC%8B%AB%EC%96%B4%EC%9A%94<br />
4. 조현진,“[학생 칼럼] 한반도 뒤덮는 미세먼지의 심각성”, 경기일보, 2020.03.26 http://www.kyeonggi.com/news/articleView.html?idxno=2262228<br />
5. 최영일,“비상 문 없는 통유리, 참사 키워”, YTN, 2016.10.14 https://www.ytn.co.kr/_ln/0103_201610142027549854<br />
6. naver포스트, 통 유리 사고 https://m.post.naver.com/viewer/postView.nhn?volumeNo=15321360&amp;memberNo=40864363&amp;vType=VERTICAL, 2020년<br />
7. 환경부, 미세먼지 대처방안, http://www.me.go.kr/home/file/readDownloadFile.do?fileId=97828&amp;fileSeq=1&amp;openYn=Y<br />
8. 우성은 외 2명 , 대중교통 차량의 실외 미세먼지 유입에 관한 연구, 대한건축학회 학술발표대회 논문집 , 2018년<br />
9. 이용일 외 6명 , 대중교통수단 및 자동차의 실내공기질에 대한 노출 분석, 환경독성보건학회 추계국제학술대회[초록집] , 2013년<br />
10. 이현우 외 7명 , 국내 외 자동차 실내공기질 관련 연구 동향 , 한국자동차공학회 춘 추계 학술대회 논문집 , 2006년</p>
]]></content:encoded>
			<wfw:commentRss>http://www.ntrexgo.com/archives/39100/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>[62호]TWO EYES (Two Camera watch wet road)</title>
		<link>http://www.ntrexgo.com/archives/39046</link>
		<comments>http://www.ntrexgo.com/archives/39046#comments</comments>
		<pubDate>Thu, 22 Oct 2020 00:00:05 +0000</pubDate>
		<dc:creator>디바이스마트 매거진</dc:creator>
				<category><![CDATA[디바이스마트 매거진]]></category>
		<category><![CDATA[특집]]></category>
		<category><![CDATA[62호]]></category>
		<category><![CDATA[ict]]></category>
		<category><![CDATA[공모전]]></category>
		<category><![CDATA[디바이스마트]]></category>
		<category><![CDATA[매거진]]></category>
		<category><![CDATA[수상작]]></category>
		<category><![CDATA[프로젝트]]></category>

		<guid isPermaLink="false">http://www.ntrexgo.com/?p=39046</guid>
		<description><![CDATA[디바이스마트매거진 62호 &#124; 편광필터를 이용한 영상 분석 시스템은 역광과 반사광에 의한 인식률 저하를 해결하여 더 정확한 노면 분석이 가능하게 한다.]]></description>
				<content:encoded><![CDATA[<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-18.png" rel="lightbox[39046]"><img alt="62 ict two eyes (18)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-18-620x179.png" width="620" height="179" /></a></p>
<p><span style="font-size: medium"><strong>2020 ICT 융합 프로젝트 공모전 우수상</strong></span></p>
<p><span style="font-size: x-large"><strong>TWO EYES (Two Camera watch wet road) </strong></span></p>
<p><strong>글 | 한국항공대학교 노윤석, 고려대학교 이준세, 가천대학교 김지연, 정진화</strong></p>
<p>&nbsp;</p>
<p><strong style="color: #0000ff">1. 심사평</strong><br />
<strong>칩센</strong> 이미 공공 서비스 영역에서 유사한 방식으로 영상을 이용한 포트홀 검출과 그에 대한 유지 보수를 적용하는 것으로 알고 있습니다. 이는 스마트시티의 여러 서비스 중에 하나로서 당연히 V2V, M2M 까지의 서비스를 염두에 두고 있는 부분입니다. 이미지 프로세싱을 통한 젖은 노면을 검출하는 것은 실질적으로는 다양한 변수에 의해서 충분한 보완이 필요하겠으나, 해당 동작을 구현하고 RC카에 카메라를 장착하여 시연을 할 수 있다는 것은 매우 인상적입니다. 향후 진보된 작품이 기대됩니다.<br />
<strong>펌테크</strong> 작품의 아이디어와 실용성 창의성이 돋보이는 작품으로 생각됩니다. 영상처리, 서버 구축, 구동부 로봇 구성 등의 기술을 효율적으로 접목하여 기획의도에 맞게 시스템을 안정적이고 완성도 높게 구현하였고 제출된 보고서 구성 내용도 명확하고, 충실했다고 생각이 듭니다. 전체적으로 기획의도, 기술 구현도, 완성도 등에서 상당히 뛰어나고 훌륭한 작품으로 생각됩니다.<br />
<strong>위드로봇</strong> 편광 필터를 통과한 두 장의 이미지에서 젖은 노면을 찾아내는 연구는 최근 연구소에서도 많이 진행하고 있는 주제입니다. 검출 영역의 정확도를 좀 더 신경 쓰면 좋은 결과를 얻을 수 있을 것으로 보입니다.</p>
<p><span style="color: #0000ff"><strong>2. 작품 개요</strong></span><br />
삼성교통안전문화연구소의 2009년~2013년까지 5년간 비 오는 날 교통사고 조사결과에 따르면, 우천 시 교통사고 100건당 치사율은 2.28명으로 평균 교통사고 치사율의 4.3배에 달했다. 또한 비 오는 날 교통사고 발생 건수는 하루 평균 2천800여 건으로 평상시보다 10.3% 많았다. 사고 유형별로는 차량 단독사고의 발생률이 1.5배 이상 크게 높아졌다. 이는 차량간 사고가 아니기 때문에 운전자가 노면 상태에 대해 인지하고 빗길 주행 시 커브 길에서의 도로 이탈이나 수막현상으로 인한 전도 및 전복 등에 주의하여 적절한 대처를 한다면 사고율을 크게 낮출 수 있다는 것을 의미한다. 하지만 많은 운전자가 노면 상태를 인지하지 못하거나, 인지하더라도 대처를 제대로 하지 못하는 것이 현재 상황이다.<br />
이러한 문제를 해결하기 위해 비, 결빙 등에 의한 주의해야할 노면 상태를 인식하여 운전자에게 현재 노면 상황을 인지시키고, 이에 따른 대처까지 할 수 있도록 하였다.<br />
또한, 현재 시판되는 자율주행 시스템은 단순 영상 분석으로 도로 상황을 인지하기 때문에, 젖은 도로에 대한 인식률이 떨어진다. 그리고 역광이나 반사광에 의해 분석해야 할 이미지가 제대로 인식되지 않는 경우도 있다. 실제로 18년 3월 테슬라의 자율주행 차량이 역광으로 인해 트럭을 하늘로 잘못 인식해 사고가 발생하기도 했었다.<br />
본 프로젝트의 편광필터를 이용한 영상 분석 시스템은 역광과 반사광에 의한 인식률 저하를 해결할 수 있고, 물리적인 반사광의 차이로 젖은 노면을 검출하기 때문에 기존의 시스템보다 더 정확한 노면 분석이 가능하게 하였다.</p>
<p><span style="color: #3366ff"><strong>2.1. 비즈니스적 이점</strong></span><br />
<span style="color: #00ccff"><strong>2.1.1. 현재 시장에서의 이점</strong></span><br />
<strong>대중화 가능한 블랙박스</strong><br />
저렴한 가격에 다양한 기능(편광필터로 인한 반사광 보정 영상 제공, 노면 상태 알림)이 포함된 블랙박스 형태로 제작하여 대중화함으로써 블랙박스 제공자가 다양한 도로정보 데이터셋을 수집할 수 있다. 또한 도로정보가 필요한 네비게이션 회사나 보험사 등에 데이터셋을 제공 하여 추가적인 이윤 창출도 가능하다.</p>
<p><strong>노면상태 검출 알고리즘</strong><br />
도로 결빙이 잦은 구간, 수막현상으로 인한 사고가 빈번한 구간의 도로 감시 시스템으로 본 알고리즘을 납품해 이윤을 창출할 수 있다. 고가의 센서를 연동하지 않고, 2개의 카메라를 통해 도로 노면의 상황을 감시하고 노면의 젖음을 쉽게 인지할 수 있기 때문에 기존의 가로등 또는 전광판에 소형 카메라 모듈을 부착해 구현할 수 있어 관련 공사의 번거로움이 적어 잠재적인 고객(도로교통 공사 등)을 설득할 수 있다. 잠재적인 고객은 실시간 도로 노면의 상황을 영상처리로 획득할 수 있어 ‘감시카메라’ + ‘도로 노면 모니터링 장비’의 2가지 기능을 한번에 구현할 수 있는 것이 장점이다.</p>
<p><span style="color: #00ccff"><strong>2.1.2. 미래 시장에서의 이점</strong></span><br />
<strong>자율주행 시스템의 보완</strong><br />
소비자들은 자율주행차의 상용화 가능성에 대한 의구심을 떨쳐내지 못하고 있다. 이는 자율주행차의 안전성에 대한 소비자들의 불신 때문이다. 많은 곳에서 자율주행차 기술의 완성도를 높이기 위해 많은 힘을 쏟고 있지만 이러한 노력에도 소비자들의 불신이 유지되는 이유는 아직 존재하는 모든 상황에 자율주행차가 대응하지 못하기 때문이다. 비나 눈, 결빙 등에 의해 변화되는 특수한 노면 상태는 사람의 육안으로는 쉽게 구별 가능하더라도 자율주행차는 구별이 어려워 대처가 미숙하다. 운전자가 필요없는 5단계의 완전 자율주행 시스템을 달성하기 위해서는 사람의 개입이 전혀 없는 상태에서도 모든 상황에 대응할 수 있어야 한다. 그렇기 때문에 본 프로젝트에서 제안되는 기술을 통해 젖은 노면이라는 구체적인 상황에 대응하는 모습을 보여준다면 소비자들의 신뢰를 얻을 수 있고 이는 기업의 이익 창출에 도움이 될 것이다.</p>
<p><span style="color: #3366ff"><strong>2.2. 작품 목표</strong></span><br />
<span style="color: #00ccff"><strong>2.2.1. 우천 시 교통사고 예방 효과를 높인다</strong></span><br />
노면 상태가 불량할 시 운전자에게 경고를 하여 주의하여 주행 하도록 유도할 수 있다.</p>
<p><span style="color: #00ccff"><strong>2.2.2. 특수 노면 상태에 대한 라벨링된 데이터셋을 가공하여 자율주행 머신러닝과 관련 기업에 제공할 수 있다.</strong> </span><br />
머신러닝 기반의 자율주행 시스템의 완성도를 높이기 위해서는 잘 정제된 데이터셋이 필수적이다. 검출된 노면 상태와 그에 대응하는 도로 이미지와 위치정보, 날씨 등을 하나의 데이터셋으로 가공하여 더욱 정교한 자율주행 시스템 개발에 도움을 줄 수 있다. 또한 도로 상태 정보를 자동차보험회사나 도로교통공단 등에 제공하여 이윤 창출이 가능하다.</p>
<p><span style="color: #00ccff"><strong>2.2.3. 일반 차량에 설치하여 대중화를 목표로 한다.</strong></span><br />
머신러닝 기반의 자율주행 시스템에는 데이터셋의 질 뿐만 아니라 양도 중요하다. 적은 부품으로 다양한 기능이 구현된 블랙박스로 구성하여 제품에 대한 접근성을 높이고, 그에 따라 더 많은 다양한 차량과 상황에 대한 데이터셋 수집이 가능하다.</p>
<p><span style="color: #00ccff"><strong>2.2.4. 자율주행차량의 특수 노면 상태에 대한 인식률을 높인다.</strong></span><br />
현재 시장의 자율주행 시스템은 우천이나 결빙 등의 특수 노면 상태에 대한 대처가 미숙한 상황이기 때문에, 이를 보강할 수 있다.</p>
<p><span style="color: #00ccff"><strong>2.2.5. 블랙박스 영상의 정확도를 높인다.</strong></span><br />
기존의 블랙박스에도 역광 또는 반사광 보정 기능이 있지만, 소프트웨어상에서의 보정이기 때문에 한계가 있다. 편광 필터에 의한 반사광 제거를 통해 더욱 정확한 영상 녹화가 가능하다.<br />
<span style="color: #0000ff"><strong>3. 작품 설명</strong></span><br />
<span style="color: #3366ff"><strong>3.1. 전체 동작 및 특징</strong></span><br />
<span style="color: #00ccff"><strong>3.1.1. 편광 필터 카메라를 통한 노면 상태 검출 시스템 제작</strong></span><br />
편광 필터가 부착된 웹캠을 이용하여 노면 상태를 검출한다. 본 시스템은 젖은 도로의 노면 부위를 검출하기 위해 각각 수평, 수직 편광 필터가 부착된 2개의 USB 카메라에서 이미지 정보를 습득한 뒤에, 임계값 기법 알고리즘(Threshold)를 통해 습득된 이미지의 상호 유사도를 추정한다. 웹캠의 영상을 실시간으로 분석하여 편광 필터에 의해 반사광이 필터링 된 영상과 그렇지 않은 영상을 비교하여 젖은 노면이 검출됨이 판단될 시 차량에 대한 직접적인 제어 및 알람을 사용자에게 전달한다.</p>
<p><span style="color: #00ccff"><strong>3.1.2. 차량 실제 적용 방법을 고려한 외부 상황 인지</strong> </span><br />
본 시스템은 본래 블랙박스 형태의 제품이지만, 개발 과정에서는 실제 차량으로 시험하는 것이 여러 가지 제약 조건이 있어 RC카 차체를 이용하여 프로토타입을 제작하였다. 실제 차량에 적용될 시 OBD단자를 통해 얻을 대기 온/습도 등의 데이터는 따로 센서를 연결하여 프로토타입에 구현하였다. 프로토 타입에서는 주의가 필요한 노면 상태가 검출될 때, 외장 되는 온/습도 센서를 통해 대기의 온습도, 적외선 센서를 통한 노면의 온도, GPS 모듈을 이용해 위도와 경도를 획득하여 관련 데이터베이스에 보고한다.</p>
<p><span style="color: #00ccff"><strong>3.1.3. 서버구축 및 데이터 저장</strong></span><br />
노면 상태 검출 시스템을 통해 젖은 노면이 검출된 경우, 관련된 정보(젖은 노면의 지리적 정보, 대기 온/습도, 노면 온도)를 온라인 웹 서버에 보고해 DB에 실시간 Data set을 만든다. DB에 생성되는 Data set은 해당 노면의 상태 사진이고, 해당 사진에 위치/시간/대기상태 등의 정보가 Labeling 된 상태이다. 이를 이용해 특수 노면 상태가 자주 검출되는 위치와 대기, 날씨 등의 실시간 정보를 축적할 수 있는 데이터베이스와 서버를 구축하고 공유하여 3차 사고방지를 위해 사용한다.</p>
<p><span style="color: #3366ff"><strong>3.2. 전체 시스템 구성</strong></span><br />
<span style="color: #00ccff"><strong>3.2.1. 하드웨어 아키텍쳐</strong></span><br />
TWO EYES 프로젝트는 2개의 카메라를 통해 도로 노면의 정보를 획득하고, 관련된 영상처리를 통해 도로 노면의 젖음을 인식하는 프로젝트이다. 2개의 카메라는 차량에 장착되어 도로 노면의 상태를 ‘실시간’으로 추정하고 / 만일 도로 젖음이 인지되는 경우 주변 차량에 해당 정보를 통보 (V2V)를 하는 동시에 (젖은 도로의 위치 정보_위도/경도, 대기 온도, 대기 습도, 노면 온도)의 센서 데이터 정보를 외부의 온라인서버에 연동하는 것을 특징으로 한다. 본 시스템에서 지향해야 하는 내용은 다음과 같다.</p>
<p><strong>Low latency</strong><br />
단말기 내부에서만 센서데이터의 습득 및 처리가 이뤄지는 것이 아닌, 여러개의 연산장치 및 외부 온라인 서버와 연동되어야 하는 동시에 저지연 (low_latency) 의 기술적 목표를 성취해 ‘실시간 시스템(real time)’ 을 구현해야 한다.</p>
<p><strong>Fail Safe</strong><br />
차량 내 설치되어 실시간 노면의 상태를 추정하는 동시에, 도로가 젖음을 인지하게 되는 경우 자동차의 속력을 낮추는 등의 ‘자동차 제어’기능을 구현하였다. 단순 모니터링 장치가 아닌, 차량의 ‘제어’부분까지 개입하게 되는 경우, System Failure로 인한 오작동은 상당히 위험하기 때문에, 해당 부분에 관련 솔루션을 제시할 수 있는 Fail Safe를 구현해야 한다.<br />
상기의 2가지 목표를 수행하기 위해서는 특정 MCU 또는 연산 장치에 집중적(high density)이거나 의존적(high dependency)인 경우에는 외부에 위협 요인에 취약한 System이 구현되게 된다. 해당 문제를 해결하기 위해 설계 단계에서 부터, 각 MCU 및 연산 장치의 한계성능 및 안정성능을 검증한 다음, 적절히 연산을 분배해 전체 하드웨어 아키텍쳐의 구성을 진행한다.<br />
상기의 2가지 목표를 수행하기 위해서 연산을 분할하고 서로 다른 MCU 또는 연산장치에 부여하게 되는 경우, Logic level voltage가 달라 회로적(Circuit problem)인 문제가 발생할 수 있다. 역시, 각각의 회로적인 문제도 구상단계에서 최대한 고려해 하드웨어 아키텍쳐에 반영해야 한다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-1.png" rel="lightbox[39046]"><img class="alignnone size-large wp-image-39048" alt="62 ict two eyes (1)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-1-620x286.png" width="620" height="286" /></a> <a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-2.png" rel="lightbox[39046]"><img class="alignnone size-large wp-image-39050" alt="62 ict two eyes (2)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-2-620x262.png" width="620" height="262" /></a> <a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-3.png" rel="lightbox[39046]"><img class="alignnone size-large wp-image-39052" alt="62 ict two eyes (3)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-3-620x388.png" width="620" height="388" /></a></p>
<p>상기의 내용과 같이 자동차 내부의 구조(영상 습득 및 영상 처리)부분을 &lt;그림 1&gt;과 같이 나타낸다면, 단말단(자동차)과 외부의 온라인 연동은 &lt;그림 2&gt;과 같이 구성된다.<br />
&lt;그림 2&gt; 도로의 노면 젖은 상태를 인지하게 되면 Local(단말단)에서 센서처리를 한 뒤에, Online에 해당 센서 데이터를 보고해, 데이터베이스에 노면이 젖은 위치와 그 당시의 환경 상황이 저장될 수 있도록 구성한다.<br />
&lt;그림 3&gt;은 Hardware Level에서의 전체 시스템 작동 예시를 Flow chart로 나타낸 그림이다. 전술된 구현 하고자 하는 지향점을 반영하기 위해 연산량을 각 MCU 또는 연산장치에 분할한 동시에 각각의 장치들이 어떻게 연동되는지 나타낸 그림이다.<br />
저성능 연산장치(라즈베리파이) 및 고성능 연산장치(노트북)은 영상습득 및 처리/온라인 서버 연동의 역할을 담당하고, MCU(Arduino)에서는 관련된 센서데이터의 취득을 한다. 동시에 취득된 데이터 중 유효한 정보 및 주변 자동차에서 발생한 경고 신호(블루투스)의 유무를 판단해 해당 정보를 저성능 연산장치(라즈베리파이)에 전송하는 형태로 각 연산장치들의 통신이 구성된다.</p>
<p><span style="color: #00ccff"><strong>3.2.2. 소프트웨어 아키텍쳐</strong></span><br />
TWO EYES 프로젝트는 두 개의 카메라 렌즈에 편광필름을 각각 수평과 수직으로 부착하여 받아온 영상 촬영을 기반으로 한다. 판별 이후 언제나 제약 없이 가능한 서비스화를 위해 AWS EC2 인스턴스를 할당받아 우리 서비스의 관제소 역할을 담당하는 Web Server를 구축한다.<br />
우리 소프트웨어 아키텍처는 HTTP 통신을 기반으로 하며, 이하 기술할 작업을 수행하기 위해서는 AWS 콘솔 내에서 MySQL, SMTP 등에 대한 인바운드 규칙을 적절히 설정해야 한다.<br />
Web Server에서는 디스플레이 및 센서처리를 담당하는 라즈베리파이에서 GPS 정보 및 각종 센서 데이터를 GET 방식으로 받아와 데이터베이스에 저장한다. 그 후 서버 단에서 데이터베이스로부터 Fetch 하여 가져온 Data row 값을 적절히 가공한다.<br />
사전에 준비한 Google Map API를 활용하여 젖은 노면 발생 위치의 위,경도를 지도에 매핑한다. 또한, GPS를 포함한 각종 센서데이터 정보를 브라우저 위에 차트 형식으로 표현하여 사용자가 원하는 방식으로 데이터를 얻을 수 있도록 한다.<br />
우리 서비스는 추후 상업화를 대비한 AI 데이터셋 제공을 목적으로 한다. 상태 정보가 Wet으로 판별되면 해당 젖은 노면 이미지를 초당 POST 방식으로 Web Server에 보내도록 한다. 이는 Web Server 내의 디렉토리에 JPG 형식으로 저장한다. (그림4)<br />
정식 서비스화를 가정하여 DataSet 구매 및 서비스에 대한 문의를 위한 e-mail 전송 기능을 구축했다. SMTP 프로토콜 사용을 위해 Port 번호 587을 할당하며, AWS 클라우드 서버에서 이를 구현하기 위해 해당 인스턴스를 Amazon SES sand box 밖으로 빼내는 작업이 필요하다.</p>
<p><span style="color: #3366ff"><strong>3.3.개발 환경</strong></span><br />
<span style="color: #00ccff"><strong>3.3.1. 개발언어 및 Tool</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-5.png" rel="lightbox[39046]"><img class="alignnone size-large wp-image-39056" alt="62 ict two eyes (5)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-5-513x620.png" width="513" height="620" /></a></p>
<p><span style="color: #00ccff"><strong><strong>3.3.2. </strong>System Element</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-6.png" rel="lightbox[39046]"><img class="alignnone size-full wp-image-39058" alt="62 ict two eyes (6)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-6.png" width="620" height="479" /></a></p>
<p><span style="color: #0000ff"><strong>4. 단계별 제작 과정</strong></span><br />
<span style="color: #3366ff"><strong>4.1. 웹캠 이미지 분석 알고리즘</strong></span><br />
본 시스템은 각각 수평, 수직 편광 필터가 부착된 두 개의 웹캠에서 받아온 이미지를 분석하여 노면의 상태를 확인한다. 이미지 분석에는 Python3.0 기반의 opencv와 numpy를 주로 사용하였다.</p>
<p><span style="color: #00ccff"><strong>4.1.1. 수면 검출을 위한 편광 현상 연구</strong></span><br />
빛이 굴절률이 다른 두 매질 사이를 지날 때, 보통 그 경계면에서 반사가 일어난다. 하지만, 어떤 편광상태의 빛이 특정한 입사각으로 입사되면 경계면에서 반사되지 않는데, 이 특정한 입사각을 브루스터 각(Brewster Angle)이라 한다. 이 각도에서는 편광된 빛의 전기장이 입사되는 평면과 나란하기 때문에 반사되지 않는다. 이 편광상태의 빛은 p-편광(p-polarized) 상태라고 하며, 빛이 입사된 평면과 수직한 상태로 편광되어 있다면 s-편광(s-polarized) 상태라고 한다. 따라서 무편광 상태의 빛이 브루스터각으로 입사되면, 반사된 빛은 항상 s-편광 상태가 된다.<br />
위의 이론에 따르면, 브루스터각으로 입사한 자연광의 반사광은 s-편광 상태이므로 수직편광 필터는 통과하지만 수평편광 필터는 통과하지 못한다. 따라서 각각 수평편광 필터와 수직편광 필터를 부착한 웹캠을 통해 반사면을 촬영하면 수평편광 필터가 부착된 웹캠의 반사면이 수직편광 필터가 부착된 웹캠의 반사면보다 어둡게 나타난다. 편광필터로 촬영된 이미지는 필터가 없는 상태에서 촬영된 이미지와 투사되는 빛의 양이 차이가 크므로 반사광이 없을 때 두 웹캠에 투사되는 빛의 양을 동일하게 하기 위해 양 쪽 모두 편광필터를 부착해야한다. 빛의 반사는 모든 매질에서 발생하지만 물과 얼음의 반사율은 주로 아스팔트로 이루어져 있는 도로의 반사율보다 현저하게 높으므로 수평편광 필터를 통과한 물에 젖은 구간과 결빙 구간의 이미지는 다른 구간에 비해 밝기 차이가 크게 난다. 아래는 영상 분석에 사용된 편광필터로 촬영한 도로 위의 수면 이미지이다. 수직편광 필터로 촬영하여 반사광이 그대로 통과된 왼쪽 이미지와 수평편광 필터로 인해 반사광이 통과하지 못한 오른쪽 이미지의 수면 밝기 차이가 큰 것을 확인할 수 있다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-1.jpg" rel="lightbox[39046]"><img class="alignnone size-full wp-image-39047" alt="62 ict two eyes (1)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-1.jpg" width="620" height="272" /></a></p>
<p>본 프로젝트의 목표는 노면의 젖은 구간과 결빙 구간을 검출해내는 것에 있음으로, 공기에 대한 물과 얼음의 반사광을 분석해야 한다. 프레넬 방정식(Fresnel equations)에 의해 유도되는 브루스터각의 유도식은 다음과 같다.<br />
공기에 대한 물과 얼음의 상대 굴절률은 각각 약 1.33, 1.31이므로, 위의 유도식에 의해 각각의 브루스터 각은 53.1도, 52.6도이다. 본 프로젝트에서는 웹캠의 세밀한 각도 조정은 불가능하여서 지면에서 반사되는 빛의 각도를 약 53도로 설정하여 설계하였다.</p>
<p><span style="color: #00ccff"><strong>4.1.2. 이미지 전처리</strong></span><br />
Threshold Method는 OpenCV의 이미지 처리 기능 중 하나이다. 이미지를 Grayscale로 읽어오면 픽셀의 요소는 명암 한가지만 남는데, 0(검은색)부터 255(흰색)까지의 값을 갖는다. Threshold 함수는 0부터 255 사이의 설정한 값을 기준으로 이미지에서 기준값보다 큰 픽셀 값은 255로, 기준값보다 작은 픽셀 값은 0으로 이진화 시킨다. 반사광의 이미지는 다른 부분과 밝기 차이가 크므로 Threshold 과정을 거치면 두 편광 이미지의 차이가 극명하게 나타난다. [그림 5.4, 5.5]는 실제로 편광필터로 촬영한 이미지를 Threshold 과정을 거쳐 변환한 결과이다. 수평 편광 필터를 통과한 수면의 이미지만 두드러지게 어둡게 변환되어 수직 편광 필터의 이미지와 큰 차이를 보여 수면을 쉽게 구분할 수 있음을 알 수 있다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-2.jpg" rel="lightbox[39046]"><img class="alignnone size-full wp-image-39049" alt="62 ict two eyes (2)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-2.jpg" width="620" height="567" /></a></p>
<p><strong style="color: #00ccff">4.1.3. 영상 구역 분할</strong></p>
<p>두 개의 웹캠의 이미지가 완전히 같을 수 없으므로 이미지에서 최대한 구역을 ROI(Region Of Interesting)을 설정 하였다. 상기의 코드 내용은 후의 코드문서에 첨부한다. 그 후의 과정으로 영상 구역을 분할하였다. 수평 편광 필터에 의해 반사광이 흡수된 이미지는 상대적으로 어두운 픽셀이 많다. 그에 따라 threshold로 이진화 처리된 이미지의 검은색이나 하얀색 픽셀의 개수 차이를 분석하여 젖은 노면을 검출할 수 있다. 본 시스템에서는 pixel ratio라는 변수로 이를 표현하였다. pixel ratio는 다음과 같이 이미지의 흰색 픽셀 수의 차이를 전체 픽셀 수로 나눈 비율로 표현하였다. 실험 결과 이미지에 반사면이 있는 경우에는 pixel ratio 값이 0.7 이하로 검출되고, 그렇지 않은 경우에는 0.85 이상의 값을 보여주었다. 하지만 전체 이미지에 대해 pixel ratio를 구하면 다른 요소에 의해 픽셀 수의 변화가 생기는 경우도 있기 때문에 더 정확한 반사면 검출을 위해 이미지의 구역을 분할하여 구역별로 pixel_ratio를 분석하였다. 한 구역의 길이를 unit으로 정의하여 unit*unit 크기의 구역으로 이미지를 분할하여 각 unit마다 pixel ratio를 계산 후, numpy array의 형태로 구역별 값을 저장하였다. unit의 값을 조절하여 resolution의 정도를 조절할 수 있다.<br />
아래는 이미지를 분할하는 함수의 소스코드다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>def seperated_image_ratio(frame1, frame2, unit):<br />
#unit의 수만큼 이미지를 분할하여 분할된 이미지의 pixel_ratio를 array에 저장<br />
ratio_arr = np.zeros((unit,unit), dtype = int)<br />
U = int(frame1.shape[0]/unit)<br />
# ratio 행렬 생성<br />
for i in range(unit):<br />
for j in range(unit):<br />
img_trim1 = frame1[i*U:(i+1)*U, j*U:(j+1)*U]
img_trim2 = frame2[i*U:(i+1)*U, j*U:(j+1)*U]
ratio = int(pixel_ratio(img_trim1, img_trim2))<br />
ratio_arr[i,j] = ratio return ratio_arr<br />
</div>
<p><span style="color: #00ccff"><strong>4.1.4. 구역별 Wet Point 추출</strong></span><br />
전처리된 이미지를 통해 검출할 수 있는 반사면의 특징은 다음과 같다.<br />
1) 반사면과 반사면이 아닌 곳의 상대적인 pixel ratio 값의 차이가 크다.<br />
2) 반사면의 절대적인 pixel ratio 값이 평균 픽셀 값보다 작다.<br />
1)의 특징점으로 반사면의 경계를 추출할 수 있고 2)의 특징점으로 반사면 경계 내부를 추출할 수 있다. 다음과 같이 각각의 unit에 접근해 1), 2)의 조건을 만족하는 unit의 좌표를 unit array와 같은 크기의 array 형태로 이진화된 값으로 저장하였다. 그 후 wet point를 검출하기 위해 filtering 작업을 하였다. 그 결과&lt;그림 10&gt;과 같이 wet point를 잘 검출한다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-3.jpg" rel="lightbox[39046]"><img class="alignnone  wp-image-39051" alt="62 ict two eyes (3)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-3.jpg" width="500" /></a><br />
아래는 젖은 부분을 인식하여 표시하는 함수의 소스코드이다.</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>def wetpoint_array(r_arr):<br />
# 1. 각각의 unit의 인접한 unit의 ratio값의 차가 일정 값을 넘으면 wet list에 좌표 값 저장<br />
# 2. unit의 ratio값이 일정 값을 넘으면 wet list에 좌표 값 저장<br />
wet_arr = np.zeros(r_arr.shape, dtype = int)<br />
ref1 = 25 # 인접한 unit간 ratio차이의 기준값<br />
ref2 = 50 # unit의 ratio 기준값<br />
for i in range(len(r_arr[0])):<br />
for j in range(len(r_arr[1])):<br />
R = r_arr[i,j]
# 조건 1<br />
Rlst = []
if (1&lt;=i&lt;=len(r_arr[0])-2 and 1&lt;=j&lt;=len(r_arr[1])-2):<br />
for m in range(3):<br />
for n in range(3):<br />
Rlst.append(r_arr[i-1+m,j-1+n])<br />
for r in Rlst:<br />
if r-R &gt; ref1:<br />
wet_arr[i,j] = 1<br />
# 조건 2<br />
if np.mean(r_arr)-R &gt; ref2 and R!=0:<br />
wet_arr[i,j] = 1<br />
return wet_arr<br />
</div>
<p><span style="color: #3366ff"><strong>4.2. 외부 환경 상황인지 센서 구현</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-8.png" rel="lightbox[39046]"><img class="alignnone size-large wp-image-39060" alt="62 ict two eyes (8)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-8-620x254.png" width="620" height="254" /></a></p>
<p>자동차가 영상 습득 후, 고성능 연산 장치에서 연산한 연산 결과가 ‘젖은 노면’임을 검출한 경우, Arduino에서 실시간 외부 상황을 인지 후, 인지된 데이터는 온라인 서버에 보고되어 데이터 베이스에 각각의 센서데이터가 저장된다. Arduino에서 습득되고 온라인에 보고되는 데이터의 종류는 ‘대기 온도, 대기 습도, 노면 온도, 위도, 경도’이다. 하기의 사진은 본 팀이 구현한 자동차에 내장된 센서의 모습이다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-4.jpg" rel="lightbox[39046]"><img class="alignnone size-large wp-image-39053" alt="62 ict two eyes (4)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-4-620x293.jpg" width="620" height="293" /></a></p>
<p>1 : 전방 노면 온도 인지용 적외선 온도 센서 2 : 실시간 위치 정보를 검출하기 위한 GPS 모듈<br />
3 : 실시간 대기 온/습도 추출을 위한 DHT11 온습도 센서</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-9.png" rel="lightbox[39046]"><img class="alignnone size-large wp-image-39061" alt="62 ict two eyes (9)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-9-620x491.png" width="620" height="491" /></a></p>
<p>4.2.1. 온습도센서, 적외선 센서를 통한 주변환경 온도검출<br />
‘젖은 노면 상황’을 인지하게 되면 Arduino에 외기 온도 상황을 검출하라는 명령이 라즈베리파이로 부터 USB Serial을 통해 명령이 하달된다. 해당 상황에서 Arduino에서 DHT11 및 적외선 온도센서를 통해 대기 온/습도 및 노면 온도를 추출한다.</p>
<p><strong>대기 온/습도 의 추출 방법</strong><br />
Arduino (Atmega 2560)과 DHT11온/습도 센서는 One-Wire 통신을 이용해 실시간 온/습도를 검출한다. DHT11 센서의 경우, Arduino에서 잦은 센서 정보 갱신(update)를 요구하게 되는 경우 Arduino에서의 실행시간 ( 1 loop cycle time )이 길어지는 단점이 있기 때문에, 도로 노면이 ‘젖은 상태’임을 검출한 당시에만 DHT11로부터 온/습도 정보를 갱신받도록 하였다.</p>
<p><strong>노면 온도의 추출방법</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-10.png" rel="lightbox[39046]"><img class="alignnone size-full wp-image-39062" alt="62 ict two eyes (10)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-10.png" width="326" height="196" /></a><br />
DHT11 온/습도 센서로부터의 온도 및 습도의 검출이 끝난 경우에는 적외선 온도센서를 이용해 노면 표면의 온도를 검출한다. Arduino 와 SPI 통신을 하는 본 센서를 통해 노면의 온도를 검출하고, 비접촉 방식의 온도 검출이 가능한 것이 특징이다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-11.png" rel="lightbox[39046]"><img class="alignnone size-full wp-image-39063" alt="62 ict two eyes (11)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-11.png" width="432" height="536" /></a></p>
<p>상기의 그림은 본 센서의 Data sheet에서 제시하는 검출 가능한 영역에 대한 내용이다. 적외선 온도 센서의 설치 높이 및 노면 지향각도에 따라 센서가 검출할 수 있는 온도의 영역 넓이가 달라진다. 그렇기 때문에 본 팀은 센서 고정 마운트를 독자 설계 해, 센서의 끝 부분에서 노면 끝 부분까지 250mm 가 될 수 있도록 설계하였다. 설계 결과 검출하고자 하는 노면을 영역을 대략 장축길이 기준 37.93mm 의 타원 형태로 검출할 수 있도록 했다.</p>
<p><span style="color: #00ccff"><strong>4.2.2. GPS를 통한 위치파악</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-7.png" rel="lightbox[39046]"><img class="alignnone size-full wp-image-39059" alt="62 ict two eyes (7)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-7.png" width="620" height="367" /></a><br />
NMEA 형태로 GPS 데이터를 송출하는 GPS 모듈로부터 Serial 통신 방법을 이용해 Atmega 328p(Arduino UNO)에서 정보를 수신한다. Arduino에 수신된 데이터는 상위 프로세서(SBC_라즈베리파이 3B+)로 송신된다. 본 프로젝트에서 GPS 모듈을 이용해 추출하고자 하는 데이터는 ‘위도’ 및 ‘경도’ 정보이기 때문에 수신된 데이터에서 “GPRMC” 문자를 찾아 해당 ‘열(row)’ 에서 특정 위치에 있는 반점 (‘,’) 인근의 데이터를 추출해 실시간 자동차의 위도 및 경도 정보를 Python의 find 및 split을 이용해 추출한다.<br />
추출된 데이터의 형태는 DMM 형태로, 일반적인 GPS 좌표 형태 (DD)방식이 아니다. 그렇기 때문에 DMM 형태의 위도 및 경도를 DD형태로 변환(conversion) 후 외부의 서버에 전송된다.<br />
변환된 좌표의 형태이기 때문에 기존 지도 api에서 바로 사용이 가능하다.<br />
DD = d + (min/60) + (sec/3600)<br />
상기의 식을 이용해 DMM 기준의 식을 DD 형태로 좌표변환을 한다.</p>
<p><span style="color: #00ccff"><strong>4.2.3. 습득된 센서 데이터 전송</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-12.png" rel="lightbox[39046]"><img class="alignnone size-full wp-image-39064" alt="62 ict two eyes (12)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-12.png" width="620" height="312" /></a></p>
<p>습득된 &lt;대기 온/습도 및 위치정보(DD 형태의 위도 및 경도), 노면 온도&gt;의 데이터를 상위 컨트롤러 (라즈베리파이)에 데이터 손실없이 빠르게 전송해야 한다. 그렇기에 Arduino에서 상위컨트롤러로 9600 보드레이트 속도의 Serial 기법으로 센서데이터를 ‘한 줄 (1 line)’ 보내는 형태로 전송한다. 보내는 데이터의 형태는 상기의 사진과 같다.<br />
데이터의 시작을 알리는 선행 문자 ‘A’를 Start token으로 지정해 데이터의 시작을 알리는 동시에, 반점 (‘,’)으로 구분된 다양한 데이터가 전송된다. Arduino에서 전송되는 데이터의 끝은 New line(‘\n’)으로 종결되기 때문에 센서 데이터를 수신하는 수신단에서는 개행문자가 ‘A’인 경우 센서데이터 수신을 대기하며 ‘\n’이 검출되는 경우 수신을 종결하면 센서데이터의 수신을 수행할 수 있다.</p>
<p><span style="color: #3366ff"><strong>4.3. 서버 구축</strong></span><br />
<span style="color: #00ccff"><strong>4.3.1. 웹 서버구축 및 데이터 저장</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-13.png" rel="lightbox[39046]"><img class="alignnone size-large wp-image-39065" alt="62 ict two eyes (13)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-13-620x224.png" width="620" height="224" /></a></p>
<p>TWO EYES 프로젝트는 상황에 제약 받지 않는 웹 서버 구축을 위해 AWS EC2 인스턴스를 사용한다. EC2는 가상서버를 클라우드에 빠르게 올릴 수 있게 해주며 OS를 포함한 Application 계층 전체를 관리할 수 있는 컴퓨팅자원(인스턴스)를 제공하는 서비스이다. AWS 서버에서 사용하기 위한 인스턴스로 Ubuntu Server 18.04 LTS (HVM), SSD Volume Type을 채택했다.<br />
인스턴스 발행 후 Ubuntu 내에서 Python 기반의 웹 프레임워크 Flask를 통해 웹 서버를 구축한다. 또한 전송받은 데이터는 MySQL을 통해 이를 관리하며 pymysql 모듈로 웹 서버 내에서 데이터베이스에 접근하도록 한다.<br />
다음은 data 테이블의 스키마를 출력한 내용이다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-14.png" rel="lightbox[39046]"><img class="alignnone size-large wp-image-39066" alt="62 ict two eyes (14)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-14-620x326.png" width="620" height="326" /></a></p>
<p>Field를 내림차순으로 봤을 때 각각 위도, 경도, 대기온도, 노면온도, 습도, 날짜, 시간을 Server로부터 GET 방식으로 받아온다. 받아온 데이터는 pymysql 모듈을 통해 데이터베이스를 업데이트 한다. 또한, 데이터베이스 내의 내용은 필요 시 fetch하여 웹 서버로 가져와 가공한다.</p>
<p><span style="color: #00ccff"><strong>4.3.2. 소켓통신</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-15.png" rel="lightbox[39046]"><img class="alignnone size-large wp-image-39067" alt="62 ict two eyes (15)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-15-620x361.png" width="620" height="361" /></a></p>
<p>고성능 컴퓨팅 장치(노트북)에 비해 연산 능력이 적은 장치(라즈베리파이)에서 영상을 습득하는 동시에 영상처리를 통해 젖은 부분을 검출하는 것은 많은 지연(latency)이 발생하기 때문에, 저성능 컴퓨팅 장치에서 2개의 영상을 습득 후, 고성능 컴퓨팅 장치에서 영상처리를 진행하는 것으로 본 시스템이 구성되어 있다. 서로 다른 컴퓨팅 장치간 영상 공유는 Streaming 형태로 영상이 전송되는 것을 특징으로, 각각의 컴퓨팅 장치는 무선 온라인 망(Local WiFi)를 통해 연결되며, 연결방식은 “TCP Sokcet” 방식으로 진행된다.<br />
TCP Socket의 경우 연결 이후 데이터의 전송되며 및 데이터의 전달 안정성 및 데이터 전송 순서를 보장하기 때문에 실시간으로 2개 종류의 영상을 Streaming 하기에 적합한 통신방식이다. 통신 속도 및 통신 트래픽의 과도한 증가를 방지하기 위해 영상 정보를 습득한 저성능 컴퓨팅 장치는 ‘흑백’ 이미지 정보를 고성능 컴퓨팅 장치 에 String 형태로 전송한다. 이때의 인코딩 형태는 일반적인 방식인 ‘utf-8’을 준수한다.<br />
단순하게 영상 정보의 공유를 제외한, 영상처리 결과(노면의 젖음 유무) 또한 고성능 연산장치에서 저성능 연산장치로 소켓통신을 통해 통보한다. 해당 결과를 수신한 저성능 컴퓨팅 장치는 외부 서버 연동 및 센서데이터 취득을 위한 일련의 과정을 거쳐 자동차의 속도 제어 또는 서버/데이터베이스에 센서데이터 전송 등을 수행하게 된다.<br />
저성능 컴퓨팅 장치에서 영상 정보를 습득해 Streaming 하는 Server의 역할을 수행하고, 고성능 컴퓨팅 장치에서 해당 영상 정보를 요청하는 Client 형태로 작동하며, 고성능 컴퓨팅 장치는 저성능 컴퓨팅 장치와 연결이 수행된 뒤에 다음과 같은 순서로 데이터의 전송 및 수신이 이뤄진다.<br />
① 고성능 장치(노트북) -&gt; 저성능 장치(라즈베리파이) / 메시지 ‘1’<br />
○ 영상 요청 (1번 카메라 영상 요청)<br />
② 저성능 장치(라즈베리파이) -&gt; 고성능 장치(노트북)<br />
○ 습득 영상 정보 송신 (1번 카메라 영상)<br />
③ 고성능 장치(노트북) -&gt; 저성능 장치(라즈베리파이) / 메시지 ‘2’<br />
○ 영상 요청 (2번 카메라 영상 요청)<br />
④ 저성능 장치(라즈베리파이) -&gt; 고성능 장치(노트북)<br />
○ 습득 영상 정보 송신(2번 카메라 영상)<br />
⑤ 고성능 장치(노트북)에서 영상처리 수행 후 노면 젖은 판단<br />
⑥ 고성능 장치(노트북) -&gt; 저성능 장치(라즈베리파이)<br />
○ 영상 판독 결과 통보 =&gt; 노면 젖음 : 메시지 ‘3’<br />
○ 영상 판독 결과 통보 =&gt; 노면 마름 : 메시지 ‘4’<br />
저성능 컴퓨팅 장치는 단순 영상 습득 및 Streaming 하는 Server 역할을 하고, 고성능 컴퓨팅 장치의 해당 영상을 습득 후 영상처리를 하는 시스템적 구조로 인해, ‘영상 습득 + 영상 처리 + 영상처리 통보’의 일련의 과정을 5Hz에 수행할 수 있다.<br />
저성능 컴퓨팅 장치(Server)에서 고성능 컴퓨팅 장치(Client)로 영상을 전송하는 경우, 직접적으로 사진 데이터를 전송하는 것이 아닌, 전송하고자 하는 사진 데이터의 길이를 우선적으로 송신한 다음, 이미지 Raw 데이터를 전송하는 형태로 통신이 진행된다. 전송하고자 하는 데이터를 우선적으로 전송하기 때문에 수신측이 데이터를 보다 안정적으로 손실 없이 수신할 수 있다는 장점이 있다.<br />
Socket 통신에서 데이터의 손실을 방지하고 / 데이터를 수신하는 수신측의 데이터 미수신으로 인한 무한 대기 상태(System Down)을 방지하기 위해, 본 시스템이 운용되는 Socket 통신에서 송신측은 수신측에 바로 인코딩(encoding)된 데이터를 송신하는 것이 아닌, 송신하고자 하는 데이터의 길이를 우선으로 송신한 다음, 원본데이터를 수신하는 형태로 구성되어 있다. 그렇기 때문에 수신측은, 수신될 데이터 길이를 수신한 다음, 해당 데이터 크기로 버퍼(Buffer)를 할당해 데이터를 수신하도록 구성되어 있다. 이는 System 의 안정성 증가 및 데이터 손실을 방지할 수 있는 장점이 있다.</p>
<p><span style="color: #00ccff"><strong>4.3.3. 웹 서비스</strong></span></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-5.jpg" rel="lightbox[39046]"><img class="alignnone size-full wp-image-39055" alt="62 ict two eyes (5)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-5.jpg" width="614" height="303" /></a></p>
<p>향후 상업화를 가정하여 AWS EC2 인스턴스를 통한 웹 서비스를 구축하였다. 해당 서비스는 TWO EYES 프로젝트의 ‘관제소’ 역할을 담당하며, 그 역할에 맞게 브라우저 상에서 지도 상 GPS 매핑 조회, 각종 센서 데이터 현황 조회가 가능하다. 또한, 브라우저로는 드러나지 않으나 웹 서버 내에서 젖은 노면 촬영 이미지 값을 받아와 클라우드 서버 내에 저장하여 데이터셋을 적재한다. 이는 향후 AI 데이터 셋으로 활용하는 것을 목적으로 한다. 추가적으로, 실제 서비스 상용화를 가정하여 관리자에게 데이터셋 또는 서비스 문의를 위한 e-mail 샌딩 기능이 있다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-16.png" rel="lightbox[39046]"><img class="alignnone size-full wp-image-39068" alt="62 ict two eyes (16)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-16.png" width="614" height="302" /></a></p>
<p>센서 처리를 담당하는 라즈베리파이로부터 젖은 노면 검출 시 GET방식으로 위,경도 값을 받아온다. 이를 웹 서버 내에서 적절한 형태로 가공하여 List로 받아온 후 Google Map을 브라우저 상에 표현한다. 이를 통해 서비스 사용자는 젖은 노면 위험 지역을 가시적으로 파악이 가능하다.</p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-17.png" rel="lightbox[39046]"><img class="alignnone size-full wp-image-39069" alt="62 ict two eyes (17)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-17.png" width="615" height="283" /></a></p>
<p>전적으로 Back-end 내에서 이루어지는 해당 서비스는 젖은 노면 검출 시 알고리즘 연산 고성능 컴퓨터로부터 클라우드 서버로 촬영 중인 이미지를 전송한다. 그  후 웹 서버는 이를 특정 디렉터리에 JPG 형식 파일로 저장한다. 우리 클라우드 서버는 촬영 이미지를 약 2초 당 한 프레임으로 받아올 수 있으며, 이는 클라우드 서버의 성능에 따라 속도가 좌우된다. 모든 데이터셋은 클라우드 서버 내에 내장되며, 브라우저에서는 가장 최근에 업로드 된 이미지의 날짜 및 시간 확인이 가능하다.<br />
<strong></strong></p>
<p><span style="color: #3366ff"><strong>5. 연구결과</strong></span><br />
<strong>젖은 노면 검출 결과</strong></p>
<p><a href="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-6.jpg" rel="lightbox[39046]"><img class="alignnone size-full wp-image-39057" alt="62 ict two eyes (6)" src="http://www.ntrexgo.com/wp-content/uploads/2021/01/62-ict-two-eyes-6.jpg" width="615" height="269" /></a></p>
<p>상기의 사진은 젖은 도로 노면의 위치에 빨간 Box 가 Image overlay 가 되며 도로가 젖음을 경고하는 것을 알 수 있다. (촬영 시간 4pm)<br />
<strong></strong></p>
<p><span style="color: #0000ff"><strong>6. 기타</strong> </span><br />
<span style="color: #3366ff"><strong>6.1. 소스코드</strong></span><br />
<strong>자동차 구동 하드웨어에서 센서데이터 처리를 위한 코드이다. </strong></p>
<p><strong>LAST_PI_ARDUION_GPS 소스코드</strong></p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>* 자동차에 내장되는 디스플레이 장치 주변 아두이노에 업로드 되는 코드<br />
* 라즈베리파이 (센서 데이터 요청) -&gt; 아두이노 (센서 데아터 처리) -&gt; 라즈베리파이<br />
* GPS 모듈을 통해 실시간 위도 및 경도 데이터 추출<br />
* DHT11 온습도 센서를 통해 실시간 대기 온습도 추출<br />
* 적외선 온도센서를 통한 실시간 노면 온도 추출<br />
* HC-06을 통해 원격의 다른 차량에게 실시간 경고 신호 송신<br />
* 다른 자동차 -&gt; 아두이노 -&gt; 라즈베리파이<br />
* 주변 자동차에서 발생하는 경고 신호 수신해 라즈베리파이에 경고 신호 수신 내용 전달<br />
*/</p>
<p>#include&lt;SPI.h&gt;<br />
#define OBJECT 0xA0 // 대상 온도 커맨드<br />
#define SENSOR 0xA1 // 센서 온도 커맨드<br />
boolean Timer1_Flag;<br />
const int chipSelectPin = 53;<br />
int iOBJECT, iSENSOR; // 부호 2byte 온도 저장 변수</p>
<p>String GPS_DATA;<br />
String BT_DATA;<br />
boolean BT_FLAG;<br />
String RASP_DATA;<br />
boolean RASP_FLAG;<br />
boolean ALARM_FLAG,SEND_FLAG;<br />
unsigned long ALARM_TIME;<br />
unsigned long GPS_LAST, BT_TIME;</p>
<p>String dummy_lattitude = &#8220;3733.3614&#8243;; // 실내 GPS 안잡히는 경우, 임시 위도 경도<br />
String dummy_longitude = &#8220;12702.7910&#8243;;</p>
<p>#include &#8220;DHT.h&#8221;<br />
#define DHTPIN 2 //온습도 센서 디지털 2번에 신호선 연결<br />
#define DHTTYPE DHT11<br />
DHT dht(DHTPIN, DHTTYPE);</p>
<p>String lattitude;<br />
String longitude;<br />
int hum;<br />
int temp;<br />
float road_temp;</p>
<p>int SPI_COMMAND(unsigned char cCMD) // 적외선 온도 센서에 온도 정보 요청<br />
{<br />
unsigned char T_high_byte, T_low_byte;<br />
digitalWrite(chipSelectPin , LOW);<br />
delayMicroseconds(10);<br />
SPI.transfer(cCMD);<br />
delayMicroseconds(10);<br />
T_low_byte = SPI.transfer(0&#215;22);<br />
delayMicroseconds(10);<br />
T_high_byte = SPI.transfer(0&#215;22);<br />
delayMicroseconds(10);<br />
digitalWrite(chipSelectPin , HIGH);<br />
return (T_high_byte&lt;&lt;8 | T_low_byte); // 온도값 return */</p>
<p>}<br />
void setup() {</p>
<p>// put your setup code here, to run once:<br />
Serial2.begin(9600);<br />
Serial.begin(9600);<br />
Serial3.begin(9600);<br />
digitalWrite(chipSelectPin , HIGH);<br />
pinMode(chipSelectPin , OUTPUT);<br />
SPI.setDataMode(SPI_MODE3);<br />
SPI.setClockDivider(SPI_CLOCK_DIV16);<br />
SPI.setBitOrder(MSBFIRST);<br />
SPI.begin();<br />
}</p>
<p>void loop()<br />
{<br />
if(Serial3.available()) // 다른 차량에서 발생한 외부에서 노면 미끄러움 정보를 수신한 경우<br />
{<br />
char data = Serial3.read();<br />
BT_DATA += data;<br />
BT_FLAG =true;<br />
BT_TIME = millis();<br />
}<br />
else if(BT_FLAG == true &amp;&amp; millis() &#8211; BT_TIME &gt; 100)<br />
{<br />
BT_FLAG = false;<br />
//Serial.println(BT_DATA.length());<br />
if(BT_DATA.indexOf(&#8216;B&#8217;) != -1)<br />
{<br />
Serial.println(&#8220;hello&#8221;);<br />
ALARM_FLAG = true;<br />
ALARM_TIME = millis();<br />
SEND_FLAG = true;<br />
}<br />
BT_DATA =&#8221;";<br />
}<br />
if(millis() &#8211; ALARM_TIME &gt; 3000 &amp;&amp; ALARM_FLAG == true)<br />
{<br />
ALARM_FLAG = false; //경보 해제<br />
SEND_FLAG = true;<br />
}<br />
//////////////////////////////////////////////////////////////////////////////////<br />
if(Serial.available()) // 자동차 내장 라즈베리파이가 노면 미끄러움을 영상으로 인식한 경우<br />
{<br />
char data = Serial.read();<br />
RASP_DATA += data;<br />
RASP_FLAG = true;<br />
}<br />
else if(RASP_FLAG == true)<br />
{<br />
RASP_FLAG = false;<br />
Serial3.println(RASP_DATA);<br />
RASP_DATA =&#8221;";<br />
}<br />
if( RASP_DATA == &#8220;B&#8221;)<br />
{<br />
SEND_FLAG = true;<br />
}<br />
//////////////////////////////////////////////////////////////////////////////////<br />
if(Serial2.available() &amp;&amp; !Serial3.available() &amp;&amp; !Serial.available())<br />
{<br />
char data;<br />
data = (char)Serial2.read();<br />
GPS_DATA += data;<br />
GPS_LAST = millis();<br />
}<br />
if(millis() &#8211; GPS_LAST &gt; 100)<br />
{<br />
//Serial.print(GPS_DATA);<br />
int data_start = GPS_DATA.indexOf(&#8220;GPRMC&#8221;);<br />
int data_end = GPS_DATA.indexOf(&#8220;GPVTG&#8221;);<br />
if(data_start &gt;0 &amp;&amp; data_end &gt;0)// 유효 데이터 확인<br />
{<br />
//Serial.print(data_start); Serial.print(&#8221; &#8220;); Serial.println(data_end);<br />
GPS_DATA = GPS_DATA.substring(data_start, data_end);<br />
//Serial.println(GPS_DATA);<br />
int first_comma = GPS_DATA.indexOf(&#8220;,&#8221;);<br />
int second_comma = GPS_DATA.indexOf(&#8220;,&#8221;, first_comma+1);<br />
int third_comma = GPS_DATA.indexOf(&#8220;,&#8221;, second_comma+1);<br />
int fourth_comma = GPS_DATA.indexOf(&#8220;,&#8221;, third_comma+1);<br />
int fifth_comma = GPS_DATA.indexOf(&#8220;,&#8221;, fourth_comma+1);<br />
int sixth_comma = GPS_DATA.indexOf(&#8220;,&#8221;, fifth_comma+1);</p>
<p>lattitude = GPS_DATA.substring(third_comma+1, fourth_comma); //위도<br />
longitude = GPS_DATA.substring(fifth_comma+1, sixth_comma); //경도<br />
//GPRMC,000505.021,V,,,,,0.00,0.00,060180,,,N*41<br />
}<br />
GPS_DATA = &#8220;&#8221;;<br />
hum = dht.readHumidity(); //대기습도<br />
temp = dht.readTemperature(); //대기온도<br />
// 이 부분에 적외선 온도 센서 시작<br />
iOBJECT = SPI_COMMAND(OBJECT); // 대상 온도 Read<br />
road_temp = float(iOBJECT)/100,2;<br />
// 이 부분에 적외선 온도 센서 끝<br />
//Serial.print(&#8220;ROAD :&#8221;); Serial.println(road_temp);<br />
// 라즈베리파이에 정보 송신<br />
}</p>
<p>if(SEND_FLAG == true)<br />
{<br />
if(lattitude.length() &lt;3)<br />
lattitude = dummy_lattitude;<br />
if(longitude.length() &lt;3)<br />
longitude = dummy_longitude;<br />
SEND_FLAG = false;<br />
Serial.print(&#8220;A ,&#8221;);<br />
Serial.print(lattitude); Serial.print(&#8220;,&#8221;);<br />
Serial.print(longitude); Serial.print(&#8220;,&#8221;);<br />
Serial.print(hum); Serial.print(&#8220;,&#8221;);<br />
Serial.print(temp); Serial.print(&#8220;,&#8221;);<br />
Serial.print(road_temp); Serial.print(&#8220;,&#8221;);<br />
Serial.print(ALARM_FLAG ? &#8216;T&#8217; : &#8216;F&#8217;); Serial.print(&#8220;,&#8221;);<br />
Serial.println();<br />
}<br />
}<br />
</div>
<p><strong>[PYTHON]VIDEO_CLIENT</strong></p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>import os<br />
import cv2<br />
import numpy as np<br />
import math<br />
import time<br />
import sys<br />
import socket<br />
WARN_FLAG = False</p>
<p>&#8221;&#8217;<br />
1. 웹캠 이미지 리드<br />
2. ROI 설정<br />
3. 픽셀 값의 평균으로 필터링: 평균값보다 크면 255(white), 작으면 0(black)<br />
4. 설정한 unit 크기로 이미지를 분할해 각각의 픽셀 수 차이 계산<br />
5. wet으로 판단되는 unit을 box로 표시<br />
6. box의 갯수가 일정 값 이상이면 count: while문으로 순환하기 때문에 count를 세서 지속적으로 wet일때만 젖은 도로라고 판단<br />
7. count가 일정 값 이상이면 &#8216;WET ROAD DETECTED&#8217; 출력<br />
&#8221;&#8217;<br />
&#8221;&#8217;<br />
wet 판단 기준<br />
# unit의 ratio값이 일정값 이하<br />
# 인접한 unit의 ratio값 차이가 일정값 이상<br />
# 위의 두 조건을 만족하면서 unit이 2*2 이상으로 밀집되어있을 때<br />
&#8221;&#8217;<br />
&#8221;&#8217;<br />
설정해야 하는 변수<br />
# Threshold 값(TH)<br />
# image trim의 x,y 값<br />
# 이미지를 분할할 unit의 크기: 300*300 이미지 이므로 unit은 300의 약수<br />
# wet_point_list 함수의 ref1, ref2<br />
&#8221;&#8217;</p>
<p>def im_trim(img, x, y, w, h): # 분석 가능한 이미지로 ROI 설정</p>
<p>(a, b) = img.shape[:2]
center = (b/3 , a/1.5)<br />
angle90 = 90<br />
scale = 1.0<br />
M = cv2.getRotationMatrix2D(center, angle90, scale)<br />
img = cv2.warpAffine(img, M, (a, b))<br />
&#8221;&#8217;<br />
x = 100; y = 100; #자르고 싶은 지점의 x좌표와 y좌표 지정<br />
w = 200; h = 200; #x로부터 width, y로부터 height를 지정<br />
&#8221;&#8217;<br />
img_trim = img[y:y+h, x:x+w] #trim한 결과를 img_trim에 담는다</p>
<p>return img_trim</p>
<p>def grayscale(img): # 그레이스케일로 이미지 변환<br />
return cv2.cvtColor(img, cv2.COLOR_RGB2GRAY)</p>
<p>def Filter(img, value = 0): # 픽셀 값 평균을 기준으로 필터링<br />
average = img.mean()</p>
<p>if value == 0:<br />
ret,img_filter = cv2.threshold(img, average, 255, cv2.THRESH_BINARY)<br />
else:<br />
ret,img_filter = cv2.threshold(img, average*value, 255, cv2.THRESH_BINARY)<br />
#ret,img_filter = cv2.threshold(img, value, 255, cv2.THRESH_BINARY)</p>
<p>return img_filter</p>
<p>def count_pixel(img): # 픽셀 값이 0인 픽셀 COUNT<br />
number = cv2.countNonZero(img)</p>
<p>return number</p>
<p>def pixel_ratio0(img1, img2): # 픽셀 값 0 비율 계산<br />
ratio = 1-abs((count_pixel(img2)-count_pixel(img1))/img1.size)<br />
return ratio*100</p>
<p>def same_bright(frame, gap): # 두 이미지의 밝기를 동일하게 조절<br />
if gap&gt;=0:<br />
M = np.ones(frame.shape, dtype = &#8220;uint8&#8243;) * abs(int(gap))<br />
transform = cv2.add(frame, M)<br />
else:<br />
M = np.ones(frame.shape, dtype = &#8220;uint8&#8243;) * abs(int(gap))<br />
transform = cv2.subtract(frame, M)</p>
<p>return transform</p>
<p>def seperated_image_ratio(frame1, frame2, unit): #unit의 수만큼 이미지를 분할하여 분할된 이미지의 pixel_ratio를 array에 저장<br />
ratio_arr = np.zeros((unit,unit), dtype = int)<br />
U = int(frame1.shape[0]/unit)<br />
white = (255,255,255)<br />
black = (0,0,0)</p>
<p># 격자 그리기<br />
for x in range(unit): cv2.line(frame2, (U*x, 0), (U*x, U*unit), black, 1, 4)<br />
for y in range(unit): cv2.line(frame2, (0, U*y), (U*unit, U*y), black, 1, 4)</p>
<p># ratio 행렬 생성<br />
for i in range(unit):<br />
for j in range(unit):<br />
img_trim1 = frame1[i*U:(i+1)*U, j*U:(j+1)*U]
img_trim2 = frame2[i*U:(i+1)*U, j*U:(j+1)*U]
ratio = int(pixel_ratio0(img_trim1, img_trim2))<br />
ratio_arr[i,j] = ratio</p>
<p># unit의 좌표 값과 ratio값 이미지에 표시</p>
<p>text = &#8216;(&#8216;+str(i)+&#8217;,'+str(j)+&#8217;)&#8217;<br />
#cv2.putText(frame2, text, (j*U+int(U*0.2), i*U+int(U*0.4)), 1, 0.5, black)<br />
cv2.putText(frame2, str(ratio), (j*U+int(U*0.3), i*U+int(U*0.8)), 1, 0.6, black)</p>
<p>return ratio_arr</p>
<p>def wetpoint_list(r_arr): # 1. 각각의 unit의 인접한 unit의 ratio값의 차가 일정 값을 넘으면 wet list에 좌표 값 저장<br />
# 2. unit의 ratio값이 일정 값을 넘으면 wet list에 좌표 값 저장</p>
<p>wet = []
ref1 = 25 # 인접한 unit간 ratio차이의 기준값<br />
ref2 = 50 # unit의 ratio 기준값<br />
for i in range(len(r_arr[0])):<br />
for j in range(len(r_arr[1])):</p>
<p>R = r_arr[i,j]
<p>Rlst = []
if (1&lt;=i&lt;=len(r_arr[0])-2 and 1&lt;=j&lt;=len(r_arr[1])-2):<br />
for m in range(3):<br />
for n in range(3):<br />
Rlst.append(r_arr[i-1+m,j-1+n])<br />
for r in Rlst:<br />
if r-R &gt; ref1:<br />
wet.append((i,j))<br />
if wet != []:<br />
if wet[-1] == (i,j):<br />
break</p>
<p>if wet != []:<br />
if wet[-1] != (i,j):<br />
if np.mean(r_arr)-R &gt; ref2 and R!=0:<br />
wet.append((i,j))<br />
return wet</p>
<p>def wet_list_filter(arr, wet): # wet리스트의 좌표값을 r_arr와 같은 크기의 2차원 array의 좌표에 1로 표시<br />
# 2*2구역의 값이 모두 1이면 wet_lst에 좌표값 저장</p>
<p>wet_arr = np.zeros(arr.shape, dtype = int)<br />
wet_lst = []
<p># wet 리스트의 좌표 값을 wet_arr에 1로 표시<br />
for n in wet:<br />
x = n[1]
y = n[0]
wet_arr[x,y] = 1</p>
<p>#2*2 구역의 값이 모두 1이면 wet_lst에 좌표값 저장<br />
for i in range(len(arr[0])):<br />
for j in range(len(arr[1])):<br />
if i+1&lt;len(arr[0])-1 and j+1&lt;len(arr[1])-1:<br />
if wet_arr[i,j]*wet_arr[i+1,j]*wet_arr[i,j+1]*wet_arr[i+1,j+1] == 1:<br />
wet_lst.append((i,j))<br />
wet_lst.append((i+1,j))<br />
wet_lst.append((i,j+1))<br />
wet_lst.append((i+1,j+1))</p>
<p>wet_lst = list(set(wet_lst))</p>
<p>return wet_lst</p>
<p>def boxing_wet(frame, lst, unit): # wet list의 젖은 픽셀 좌표를 box로 화면에 표시<br />
U = int(frame.shape[0]/unit)<br />
thick = 2<br />
for n in lst:<br />
x = n[0]
y = n[1]
cv2.line(frame, (U*x, U*y), (U*x, U*(y+1)), (0,0,255), thick, 4)<br />
cv2.line(frame, (U*x, U*y), (U*(x+1), U*y), (0,0,255), thick, 4)<br />
cv2.line(frame, (U*(x+1), U*y), (U*(x+1), U*(y+1)), (0,0,255), thick, 4)<br />
cv2.line(frame, (U*x, U*(y+1)), (U*(x+1), U*(y+1)), (0,0,255), thick, 4)</p>
<p>def nothing(x):<br />
pass #더미 함수 생성&#8230; 트랙 바 생성시 필요하므로</p>
<p>def recvall(sock, Count):<br />
buf = b&#8221;<br />
while Count:<br />
newbuf = sock.recv(Count)<br />
if not newbuf: return None<br />
buf += newbuf<br />
Count -= len(newbuf)<br />
return buf</p>
<p>def SEND_WARN():<br />
for i in range(3):<br />
Message = &#8217;3&#8242;<br />
client_socket.send(Message.encode()) ##알람 경보 활성화<br />
print(&#8220;send&#8221;)<br />
length = recvall(client_socket,16)<br />
stringData = recvall(client_socket, int(length))</p>
<p>def SEND_SAFE():<br />
Message = &#8217;4&#8242;<br />
client_socket.send(Message.encode()) ##알람 경보 활성화<br />
length = recvall(client_socket,16)<br />
stringData = recvall(client_socket, int(length))<br />
def get_img_channel(channel):<br />
message = channel<br />
client_socket.send(message.encode()) ## 1번 이미지 전송 요청<br />
length = recvall(client_socket,16)<br />
stringData = recvall(client_socket, int(length))<br />
data = np.frombuffer(stringData, dtype=&#8217;uint8&#8242;)<br />
img = cv2.imdecode(data,1)<br />
return img</p>
<p>HOST = &#8217;192.168.0.9&#8242;<br />
PORT = 9999<br />
client_socket = socket.socket(socket.AF_INET,socket.SOCK_STREAM)<br />
client_socket.connect((HOST, PORT))</p>
<p>cv2.namedWindow(&#8216;Binary&#8217;) #트랙바를 붙일 윈도우를 생성<br />
cv2.resizeWindow(&#8216;Binary&#8217;, 400, 120)<br />
cv2.createTrackbar(&#8216;threshold&#8217;,'Binary&#8217;, 0, 150, nothing) #트랙바를 이름이&#8217;Binary&#8217;인 윈도우에 붙임&#8217;<br />
cv2.setTrackbarPos(&#8216;threshold&#8217;, &#8216;Binary&#8217;, 100) #초기값 100<br />
cv2.createTrackbar(&#8216;X&#8217;,'Binary&#8217;, 0, 100, nothing) #트랙바를 이름이&#8217;Binary&#8217;인 윈도우에 붙임&#8217;<br />
cv2.setTrackbarPos(&#8216;X&#8217;, &#8216;Binary&#8217;, 40) #초기값 40<br />
cv2.createTrackbar(&#8216;Y&#8217;,'Binary&#8217;, 150, 250, nothing) #트랙바를 이름이&#8217;Binary&#8217;인 윈도우에 붙임&#8217;<br />
cv2.setTrackbarPos(&#8216;Y&#8217;, &#8216;Binary&#8217;, 200) #초기값 200</p>
<p>count = 0<br />
unit = 15 #pixel이 300*300 이므로 unit은 300의 약수여야함<br />
f1 =&#8221;<br />
f2 =&#8221;<br />
while True:<br />
if WARN_FLAG == True:<br />
SEND_WARN()<br />
WARN_FLAG = False<br />
print(time.time())<br />
f1 = get_img_channel(&#8217;1&#8242;) # 1번 이미지 전송 요청<br />
f2 = get_img_channel(&#8217;2&#8242;) # 2번 이미지 전송 요청</p>
<p>TH = cv2.getTrackbarPos(&#8216;threshold&#8217;,'Binary&#8217;)*0.01 # threshold 필터링 값ㅂ<br />
x = cv2.getTrackbarPos(&#8216;X&#8217;,'Binary&#8217;) # frame2의 x축 값 변경<br />
y = cv2.getTrackbarPos(&#8216;Y&#8217;,'Binary&#8217;) # frame2의 y축 값 변경</p>
<p>if True:<br />
frame1_rgb = im_trim(f1, 72, 100, 300, 300)<br />
frame2_rgb = im_trim(f2, x, y, 300, 300) # x 초기값 40, y 초기값 200</p>
<p>frame1 = grayscale(frame1_rgb)<br />
frame2 = grayscale(frame2_rgb)</p>
<p>average1 = frame1.mean()<br />
average2 = frame2.mean()<br />
gap = average1 &#8211; average2</p>
<p>frame2_c = same_bright(frame2, gap)</p>
<p>average2_c = frame2_c.mean()</p>
<p>thresh1 = Filter(frame1, TH)<br />
thresh2 = Filter(frame2_c, TH)</p>
<p>thresh3 = cv2.bitwise_xor(thresh1, thresh2) # t1, t2 이미지 겹치는 부분 0으로 변환<br />
xor_ratio = count_pixel(thresh3) * 100/ thresh3.size</p>
<p>unit_arr = seperated_image_ratio(thresh1, thresh2, unit)<br />
p_ratio = int(np.mean(unit_arr))</p>
<p>wet = wetpoint_list(unit_arr)<br />
wet = wet_list_filter(unit_arr, wet)<br />
boxing_wet(frame1_rgb, wet, unit)</p>
<p>if len(wet) &gt; 3:<br />
count += 1<br />
else:<br />
count = 0</p>
<p>sign = 0<br />
if count &gt; 10: ## 노면이 젖은 부분을 검출하는 부분<br />
sign = 1</p>
<p>print(&#8221;,\<br />
&#8216;W.P &#8216;+str(len(wet)),\<br />
&#8216;R: &#8216;+ str(p_ratio),\<br />
&#8216;TH: &#8216; + str(TH),\<br />
&#8216;GAP: &#8216; + str(int(gap)),\<br />
&#8216;A1: &#8216; + str(int(average1)),\<br />
&#8216;XOR: &#8216; + str(int(xor_ratio)),\<br />
&#8216;COUNT: &#8216; + str(count),\<br />
&#8216;WET ROAD DETECTED!!!&#8217;,\<br />
&#8221;,\<br />
sep = &#8216; | &#8216;)<br />
wet = []
WARN_FLAG = True</p>
<p>else:<br />
SEND_SAFE()<br />
print(&#8221;,\<br />
&#8216;W.P &#8216;+str(len(wet)),\<br />
&#8216;R: &#8216;+ str(p_ratio),\<br />
&#8216;TH: &#8216; + str(TH),\<br />
&#8216;GAP: &#8216; + str(int(gap)),\<br />
&#8216;A1: &#8216; + str(int(average1)),\<br />
&#8216;XOR: &#8216; + str(int(xor_ratio)),\<br />
&#8216;COUNT: &#8216; + str(count),\<br />
&#8221;,\<br />
sep = &#8216; | &#8216;)</p>
<p>cv2.imshow(&#8220;1&#8243;, thresh1)<br />
cv2.imshow(&#8220;2&#8243;, thresh2)<br />
cv2.imshow(&#8217;55&#8242;, f2)<br />
#cv2.imshow(&#8220;3&#8243;, thresh3)<br />
cv2.imshow(&#8220;ORIGIN1&#8243;, frame1_rgb)<br />
#cv2.imshow(&#8220;ORIGIN2&#8243;, frame2_c)<br />
if cv2.waitKey(1) &amp; 0xFF == ord(&#8216;q&#8217;):<br />
break<br />
# 사용자가 키보드 q 누르면 Opencv 종료</p>
<p>cv2.destroyAllWindows() # 리소스 반환<br />
cv2.waitKey(0)<br />
client_socket.close()<br />
</div>
<p><strong>[PYTHON]VIDEO_HOST</strong></p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p># -*- coding: utf-8 -*-<br />
# 원격 동키카 제어 및 카메라 스트리밍 코드<br />
# 동키카는 흑백 영상을 Streaming<br />
&#8221;&#8217;<br />
2020.02.12<br />
동키카 PWM / STREAMING + 외부 연산장치 연산결과에 따른 GPIO 출력<br />
노면 상태가 젖은 경우 라즈베리파이 GPIO 21 번이 HIGH 상태가 되었다가 특정 시간이 지난 뒤에 자동으로 LOW됨<br />
&#8221;&#8217;<br />
import cv2<br />
import numpy<br />
import time<br />
import pygame<br />
import socket<br />
import time<br />
import RPi.GPIO as GPIO<br />
from _thread import *</p>
<p>#라즈베리파이 GPIO<br />
import RPi.GPIO as GPIO<br />
GPIO_SIGNAL = 21<br />
GPIO.setmode(GPIO.BCM)<br />
GPIO.setup(21, GPIO.OUT)<br />
GPIO.output(GPIO_SIGNAL,False)<br />
import Adafruit_PCA9685<br />
pwm = Adafruit_PCA9685.PCA9685() #pwm = Adafruit_PCA9685.PCA9685(address=0&#215;41, busnum=2)<br />
pwm.set_pwm_freq(60) # 서보모터 60Hz로 펄스주기를 설정.</p>
<p>#### 동키카 PWM 펄스 조절 부분 #########<br />
# 이 부분의 값을 적절히 조절해서 전진/후진/정지/좌/우 조절할 것#<br />
PWM_GO_SLOW = 395<br />
PWM_GO_FAST = 400<br />
PWM_GO = PWM_GO_FAST</p>
<p>PWM_BACK = 370<br />
PWM_STOP = 380</p>
<p>PWM_LEFT = 260<br />
PWM_RIGHT = 500<br />
PWM_CENTER = 380<br />
#### 동키카 PWM 펄스 조절 부분 #########</p>
<p>&nbsp;</p>
<p># Settings for joystick<br />
axisUpDown = 1 # Joystick axis to read for up / down position<br />
axisUpDownInverted = False # Set this to True if up and down appear to be swapped<br />
axisLeftRight = 3 # 라즈베리파이에서는 3 / 컴퓨터에서는 4로 지정하면 됨<br />
axisLeftRightInverted = False # Set this to True if left and right appear to be swapped</p>
<p>pygame.init()<br />
pygame.joystick.init()<br />
joystick = pygame.joystick.Joystick(0)<br />
joystick.init()</p>
<p>HOST = &#8221;<br />
PORT = 9999</p>
<p>server_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)<br />
server_socket.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)<br />
server_socket.bind((HOST, PORT))<br />
server_socket.listen()<br />
print(&#8216;server start&#8217;)<br />
A =b&#8217;hello&#8217;<br />
B =b&#8217;world&#8217;<br />
global GO<br />
global TILT<br />
global CONT_DATA<br />
GO = 0<br />
TILT = 0<br />
tt =1<br />
last_ch_data =0<br />
ALARM = False<br />
init_time = time.time()</p>
<p>#PCA9685 관련 펄스 초기설정 함수<br />
def set_servo_pulse(channel, pulse):<br />
pulse_length = 1000000 # 1,000,000 us per second<br />
pulse_length //= 60 # 60 Hz<br />
print(&#8216;{0}us per period&#8217;.format(pulse_length))<br />
pulse_length //= 4096 # 12 bits of resolution<br />
print(&#8216;{0}us per bit&#8217;.format(pulse_length))<br />
pulse *= 1000<br />
pulse //= pulse_length<br />
pwm.set_pwm(channel, 0, pulse)<br />
pwm.set_pwm_freq(60)<br />
# Function to handle pygame events<br />
def PygameHandler(events):<br />
#조이스틱 이벤트 발생한 경우<br />
for event in events:<br />
if event.type == pygame.JOYAXISMOTION:<br />
upDown = joystick.get_axis(axisUpDown)<br />
leftRight = joystick.get_axis(axisLeftRight)<br />
global GO<br />
global TILT<br />
if upDown &lt; -0.1:<br />
#print(&#8220;GO&#8221;)<br />
GO = 1<br />
elif upDown &gt; 0.1:<br />
#print(&#8220;BACK&#8221;)<br />
GO = -1<br />
else:<br />
GO = 0</p>
<p>if leftRight &lt; -0.1:<br />
#print(&#8220;LEFT&#8221;)<br />
TILT = 1<br />
elif leftRight &gt; 0.1:<br />
#print(&#8220;RIGHT&#8221;)<br />
TILT = -1<br />
else:<br />
TILT = 0</p>
<p>return GO, TILT</p>
<p># 그레이스케일로 이미지 변환<br />
def grayscale(img):<br />
return cv2.cvtColor(img, cv2.COLOR_RGB2GRAY)</p>
<p>## time.sleep의 system 독점을 방지하기 위한 내용<br />
def millis_python():<br />
now_time = time.time()<br />
now_time = (now_time &#8211; init_time)<br />
return now_time</p>
<p># 쓰레드 함수 ( 소켓 통신 개시 이후 무한 loop 문 처럼 작동하는 구문 )<br />
def threaded(client_socket, addr):<br />
global tt<br />
print(&#8216;Connected by :&#8217;, addr[0], &#8216;:&#8217;, addr[1])<br />
stringData = b&#8221;<br />
while True:<br />
try:<br />
data = client_socket.recv(1024)<br />
if not data:<br />
print(&#8216;Disconnected by &#8216; + addr[0],&#8217;:',addr[1])<br />
pwm.set_pwm(0, 0, PWM_STOP)<br />
break<br />
ch_data = int(data)<br />
if ch_data == 1:<br />
stringData = A<br />
#client_socket.send(str(len(A)).ljust(16).encode())<br />
#client_socket.send(A)<br />
last_ch_data =1<br />
#stringData = queue1.get()<br />
if ch_data == 2:<br />
stringData = B<br />
last_ch_data =2<br />
#client_socket.send(str(len(B)).ljust(16).encode())<br />
#client_socket.send(B)<br />
#stringData = queue2.get()<br />
if ch_data == 3: ### WARN SIGNAL<br />
GPIO.output(GPIO_SIGNAL,False)<br />
PWM_GO = PWM_GO_SLOW<br />
print(&#8220;EEEE&#8221;)<br />
tt = millis_python()<br />
stringData =b&#8217;AA&#8217;</p>
<p>if ch_data == 4:<br />
stringData =b&#8217;AA&#8217;<br />
PWM_GO = PWM_GO_FAST</p>
<p>client_socket.send(str(len(stringData)).ljust(16).encode())<br />
client_socket.send(stringData)<br />
## 이 부분에 PWM 제어 신호 넣으면 됨<br />
CONT_DATA = PygameHandler(pygame.event.get())<br />
print(GO, TILT)<br />
if GO == 1:<br />
print(&#8220;FORWARD&#8221;)<br />
pwm.set_pwm(0, 0, PWM_GO) #0번서보<br />
elif GO == -1:<br />
print(&#8220;BACKWARD&#8221;)<br />
pwm.set_pwm(0, 0, PWM_BACK) #0번서보<br />
else: # 이 부분에 전진모터 중립<br />
pwm.set_pwm(0, 0, PWM_STOP) #0번서보</p>
<p>if TILT == 1:<br />
print(&#8220;LEFT&#8221;)<br />
pwm.set_pwm(3, 0, PWM_LEFT) #3번서보<br />
elif TILT == -1:<br />
print(&#8220;RIGHT&#8221;)<br />
pwm.set_pwm(3, 0, PWM_RIGHT) #3번서보<br />
else: # 이 부분에 조향서보모터 중립<br />
pwm.set_pwm(3, 0, PWM_CENTER) #3번서보</p>
<p>## 특정 시간이 지나면 자동으로 알람을 해제하는 부분 ( 5초 이상 경과 시 OFF )<br />
if (millis_python() &#8211; tt &gt; 4):<br />
PWM_GO = PWM_GO_FAST<br />
GPIO.output(GPIO_SIGNAL,True)<br />
ALARM = False</p>
<p>except ConnectionResetError as e:<br />
print(&#8216;Disconnected by &#8216; + addr[0],&#8217;:',addr[1])<br />
pwm.set_pwm(0, 0, PWM_STOP)<br />
break<br />
client_socket.close()<br />
def webcam():<br />
# capture1 = cv2.VideoCapture(0) # 카메라 채널 바꿔주면 됨<br />
# capture2 = cv2.VideoCapture(2) # 카메라 채널 바꿔주면 됨<br />
while True:<br />
ret1, frame1 = capture1.read()<br />
ret2, frame2 = capture2.read()<br />
if ret1 == True:<br />
encode_param=[int(cv2.IMWRITE_JPEG_QUALITY),50]
frame1 = grayscale(frame1)<br />
result, imgencode = cv2.imencode(&#8216;.jpg&#8217;, frame1, encode_param)<br />
data1 = numpy.array(imgencode)<br />
stringData1 = data1.tostring()<br />
global A<br />
A = stringData1<br />
cv2.imshow(&#8216;CH1&#8242;, frame1)</p>
<p>if ret2 == True:<br />
encode_param=[int(cv2.IMWRITE_JPEG_QUALITY),50]
frame2 = grayscale(frame2)<br />
result, imgencode = cv2.imencode(&#8216;.jpg&#8217;, frame2, encode_param)<br />
data2 = numpy.array(imgencode)<br />
stringData2 = data2.tostring()<br />
global B<br />
B = stringData2<br />
cv2.imshow(&#8216;CH2&#8242;, frame2)<br />
key = cv2.waitKey(1)<br />
if key == 27:<br />
break</p>
<p>GPIO.output(GPIO_SIGNAL,True)<br />
capture1 = cv2.VideoCapture(0) # 카메라 채널 바꿔주면 됨<br />
capture2 = cv2.VideoCapture(2) # 카메라 채널 바꿔주면 됨<br />
start_new_thread(webcam, ())</p>
<p>while True:<br />
print(&#8216;wait&#8217;)<br />
client_socket, addr = server_socket.accept()</p>
<p>#threaded(client_socket, addr)</p>
<p>start_new_thread(threaded, (client_socket, addr ))</p>
<p>server_socket.close()<br />
GPIO.cleanup()<br />
</div>
[WEB] Web code</p>
<div class="symple-box yellow none" style="text-align:left; width:100%;"> 
<p>&#8212;&#8212;&#8212;&#8212;&#8212;&#8212; main.py &#8212;&#8212;&#8212;&#8212;&#8212;&#8212;-</p>
<p>#-*- coding: utf-8 -*-</p>
<p>from flask import Flask, render_template, Response, request, url_for<br />
from flask_googlemaps import GoogleMaps<br />
from flask_googlemaps import Map, icons<br />
from flask import current_app as current_app<br />
from flask_mail import Mail, Message<br />
import dbModule<br />
import os, datetime<br />
import glob</p>
<p>app = Flask(__name__, template_folder=&#8221;templates&#8221;)</p>
<p>app.config['GOOGLEMAPS_KEY'] = &#8220;########&#8221;<br />
GoogleMaps(app)<br />
UPLOAD_FOLDER = &#8216;./uploads&#8217;<br />
app.config['UPLOAD_FOLDER'] = UPLOAD_FOLDER</p>
<p>app.config['MAIL_SERVER'] = os.environ.get(&#8216;MAIL_SERVER&#8217;, &#8216;smtp.gmail.com&#8217;)<br />
app.config['MAIL_PORT'] = int(os.environ.get(&#8216;MAIL_PORT&#8217;, &#8217;587&#8242;))<br />
app.config['MAIL_USERNAME'] = os.environ.get(&#8216;MAIL_USERNAME&#8217;, &#8216;#######&#8217;)<br />
app.config['MAIL_PASSWORD'] = os.environ.get(&#8216;MAIL_PASSWORD&#8217;, &#8216;#######&#8217;)<br />
app.config['MAIL_USE_TLS'] = int(os.environ.get(&#8216;MAIL_USE_TLS&#8217;, True))<br />
app.config['MAIL_USE_SSL'] = int(os.environ.get(&#8216;MAIL_USE_SSL&#8217;, False))</p>
<p>mail = Mail(app)</p>
<p>db_class = dbModule.Database()<br />
@app.route(&#8216;/email&#8217;, methods=['POST'])<br />
def email():<br />
name = request.form['name']
email_address = request.form['email']
phone = request.form['phone']
message = request.form['message']
<p>msg = Message(&#8216;A new message from TWOEYES&#8217;, sender=email_address, recipients=['#######'])<br />
msg.body = &#8220;You have received a new message from your website contact form.\nHere are the details:\n\nName: %s\n\nEmail: %s\n\nPhone: %s\n\nMessage: %s&#8221; % (name, email_address, phone, message)<br />
mail.send(msg)</p>
<p>return &#8216;Sent&#8217;<br />
@app.route(&#8216;/data&#8217;, methods=['GET'])<br />
def getData():<br />
lat = request.args.get(&#8216;req_lat&#8217;)<br />
lng = request.args.get(&#8216;req_lng&#8217;)<br />
t1 = request.args.get(&#8216;req_t1&#8242;)<br />
t2 = request.args.get(&#8216;req_t2&#8242;)<br />
h = request.args.get(&#8216;req_h&#8217;)<br />
date = request.args.get(&#8216;req_date&#8217;)<br />
time = request.args.get(&#8216;req_time&#8217;)</p>
<p>sql = &#8220;&#8221;"insert into data(lat, lng, t1, t2, h, date, time) values (%s, %s, %s, %s, %s, %s, %s)&#8221;"&#8221;<br />
db_class.execute(sql, (lat, lng, t1, t2, h, date, time))<br />
db_class.commit()</p>
<p>return &#8216;Data&#8217;<br />
@app.route(&#8216;/image&#8217;, methods=['POST'])<br />
def postImage():<br />
file = request.files['file']
if file:<br />
#filename = secure_filename(file.filename)<br />
filename = datetime.datetime.now().strftime(&#8216;%y%m%d_%H%M%S&#8217;)+&#8217;.jpg&#8217;<br />
file.save(os.path.join(app.config['UPLOAD_FOLDER'], filename))</p>
<p>return &#8216;Image&#8217;<br />
@app.route(&#8216;/&#8217;)<br />
def index():</p>
<p>sql = &#8220;select * from data order by date&#8221;<br />
row = db_class.executeAll(sql)</p>
<p>db_class.execute(&#8220;select count(*) from data&#8221;)<br />
cnt = db_class.cursor.fetchone()</p>
<p>cnt = cnt.get(&#8216;count(*)&#8217;)</p>
<p>gps_list=[]
<p>for i in range(0, cnt):<br />
row_lat = float(row[i].get(&#8216;lat&#8217;))<br />
row_lng = float(row[i].get(&#8216;lng&#8217;))</p>
<p>gps_list.append((row_lat, row_lng))<br />
#print(gps_list)</p>
<p>sndmap = Map(<br />
style=&#8221;height: 450px; width: 1150px;&#8221;,<br />
identifier=&#8221;sndmap&#8221;,<br />
varname=&#8221;sndmap&#8221;,<br />
zoom=16, #13</p>
<p>lat=row[0].get(&#8216;lat&#8217;),<br />
lng=row[0].get(&#8216;lng&#8217;),<br />
markers=gps_list<br />
)</p>
<p>list_of_files = glob.glob(&#8216;./uploads/*&#8217;)<br />
latest_file = max(list_of_files, key=os.path.getctime)</p>
<p>return render_template(&#8216;index.html&#8217;, sndmap=sndmap, GOOGLEMAPS_KEY=request.args.get(&#8216;apikey&#8217;), row=row, len=len(row), latest_file=latest_file)<br />
if __name__ == &#8216;__main__&#8217;:<br />
app.run(host=&#8217;0.0.0.0&#8242;, port=5000, debug=True)<br />
&#8212;&#8212;&#8212;&#8212;&#8212;&#8212; dbModule.py &#8212;&#8212;&#8212;&#8212;&#8212;&#8212;-</p>
<p>import pymysql</p>
<p>class Database():<br />
def __init__(self):<br />
self.db= pymysql.connect(host=&#8217;18.213.156.121&#8242;,<br />
user=&#8217;#####&#8217;,<br />
password=&#8217;#######&#8217;,<br />
db=&#8217;TWOEYES&#8217;,<br />
charset=&#8217;utf8&#8242;)<br />
self.cursor= self.db.cursor(pymysql.cursors.DictCursor)</p>
<p>def execute(self, query, args={}):<br />
self.cursor.execute(query, args)</p>
<p>def executeOne(self, query, args={}):<br />
self.cursor.execute(query, args)<br />
row= self.cursor.fetchone()<br />
return row</p>
<p>def executeAll(self, query, args={}):<br />
self.cursor.execute(query, args)<br />
row= self.cursor.fetchall()<br />
return row</p>
<p>def commit(self):<br />
self.db.commit()<br />
&#8212;&#8212;&#8212;&#8212;&#8212;&#8212; contact.js &#8212;&#8212;&#8212;&#8212;&#8212;&#8212;-</p>
<p>$(function() {</p>
<p>$(&#8220;#contactForm input,#contactForm textarea&#8221;).jqBootstrapValidation({<br />
preventSubmit: true,<br />
submitError: function($form, event, errors) {<br />
// additional error messages or events<br />
},<br />
submitSuccess: function($form, event) {<br />
event.preventDefault(); // prevent default submit behaviour<br />
// get values from form<br />
var name = $(&#8220;input#name&#8221;).val();<br />
var email = $(&#8220;input#email&#8221;).val();<br />
var phone = $(&#8220;input#phone&#8221;).val();<br />
var message = $(&#8220;textarea#message&#8221;).val();<br />
var firstName = name;<br />
// Check the space of name for success/fail message<br />
if (firstName.indexOf(&#8216; &#8216;) &gt;= 0) {<br />
firstName = name.split(&#8216; &#8216;).slice(0, -1).join(&#8216; &#8216;);<br />
}<br />
$this = $(&#8220;#sendMessageButton&#8221;);<br />
$this.prop(&#8220;disabled&#8221;, true);<br />
$.ajax({<br />
url: &#8220;http://18.213.156.121:5000/email&#8221;,<br />
type: &#8220;POST&#8221;,<br />
data: {<br />
name: name,<br />
phone: phone,<br />
email: email,<br />
message: message<br />
},<br />
cache: false,<br />
success: function() {<br />
// Success message<br />
$(&#8216;#success&#8217;).html(&#8220;&lt;div class=&#8217;alert alert-success&#8217;&gt;&#8221;);<br />
$(&#8216;#success &gt; .alert-success&#8217;).html(&#8220;&lt;button type=&#8217;button&#8217; class=&#8217;close&#8217; data-dismiss=&#8217;alert&#8217; aria-hidden=&#8217;true&#8217;&gt;&amp;times;&#8221;)<br />
.append(&#8220;&lt;/button&gt;&#8221;);<br />
$(&#8216;#success &gt; .alert-success&#8217;)<br />
.append(&#8220;&lt;strong&gt;Your message has been sent. &lt;/strong&gt;&#8221;);<br />
$(&#8216;#success &gt; .alert-success&#8217;)<br />
.append(&#8216;&lt;/div&gt;&#8217;);<br />
//clear all fields<br />
$(&#8216;#contactForm&#8217;).trigger(&#8220;reset&#8221;);<br />
},<br />
error: function() {<br />
// Fail message<br />
$(&#8216;#success&#8217;).html(&#8220;&lt;div class=&#8217;alert alert-danger&#8217;&gt;&#8221;);<br />
$(&#8216;#success &gt; .alert-danger&#8217;).html(&#8220;&lt;button type=&#8217;button&#8217; class=&#8217;close&#8217; data-dismiss=&#8217;alert&#8217; aria-hidden=&#8217;true&#8217;&gt;&amp;times;&#8221;)<br />
.append(&#8220;&lt;/button&gt;&#8221;);<br />
$(&#8216;#success &gt; .alert-danger&#8217;).append($(&#8220;&lt;strong&gt;&#8221;).text(&#8220;Sorry &#8221; + firstName + &#8220;, it seems that my mail server is not responding. Please try again later!&#8221;));<br />
$(&#8216;#success &gt; .alert-danger&#8217;).append(&#8216;&lt;/div&gt;&#8217;);<br />
//clear all fields<br />
$(&#8216;#contactForm&#8217;).trigger(&#8220;reset&#8221;);<br />
},<br />
complete: function() {<br />
setTimeout(function() {<br />
$this.prop(&#8220;disabled&#8221;, false);<br />
}, 1000);<br />
}<br />
});<br />
},<br />
filter: function() {<br />
return $(this).is(&#8220;:visible&#8221;);<br />
},<br />
});</p>
<p>$(&#8220;a[data-toggle=\"tab\"]&#8220;).click(function(e) {<br />
e.preventDefault();<br />
$(this).tab(&#8220;show&#8221;);<br />
});<br />
});</p>
<p>// When clicking on full hide fail/success boxes<br />
$(&#8216;#name&#8217;).focus(function() {<br />
$(&#8216;#success&#8217;).html(&#8221;);<br />
});<br />
</div>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.ntrexgo.com/archives/39046/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
