감지기
과학자들은 일관된 X선 산란 데이터에서 이미지를 재구성하는 프로세스를 가속화하기 위해 인공 지능(AI)을 사용하는 것을 시연했습니다. 의료용 X선 영상과 같은 기존의 X선 영상 기술은 제공할 수 있는 세부 정보의 양에 제한이 있습니다. 이것은 수 나노미터 이하의 해상도로 재료 내부의 깊은 곳에서 이미지를 제공할 수 있는 일관된 X선 이미징 방법의 개발로 이어졌습니다. 이러한 기술은 시료에서 빔을 회절 또는 산란시켜 검출기로 직접 렌즈를 사용할 필요 없이 X선 이미지를 생성합니다.
이러한 검출기에 의해 캡처된 데이터에는 고화질 이미지를 재구성하는 데 필요한 모든 정보가 있으며 계산 과학자는 고급 알고리즘을 사용하여 이를 수행할 수 있습니다. 이 이미지는 과학자들이 더 나은 배터리를 설계하고, 더 내구성이 있는 재료를 만들고, 질병에 대한 더 나은 약물과 치료법을 개발하는 데 도움이 될 수 있습니다.
컴퓨터를 사용하여 일관된 산란 X선 데이터에서 이미지를 조합하는 프로세스를 ptychography라고 하며 팀은 해당 데이터를 일관된 형태로 가져오는 방법을 학습하는 신경망을 사용했습니다. 따라서 혁신의 이름은 PtychoNN입니다.
X선 빔이 시료에 부딪히면 빛이 회절되어 산란되며 시료 주변의 검출기가 그 빛을 수집합니다. 그런 다음 해당 데이터를 사용할 수 있는 정보로 바꾸는 것은 과학자의 몫입니다. 그러나 문제는 X선 빔의 광자가 빔의 진폭 또는 밝기와 샘플을 통과할 때 빔이 변하는 정도 또는 위상이라는 두 가지 정보를 전달하는 반면 검출기에만 해당된다는 것입니다. 캡처 하나. 감지기는 진폭만 감지할 수 있고 위상은 감지할 수 없기 때문에 모든 정보가 손실되므로 재구성해야 합니다.
그것은 할 수 있지만 그 과정은 과학자들이 원하는 것보다 느립니다. 과제의 일부는 데이터 수집 쪽입니다. 간섭성 회절 이미징 실험에서 위상 데이터를 재구성하기 위해 현재 알고리즘은 과학자들이 샘플에서 훨씬 더 많은 진폭 데이터를 수집해야 하며 시간이 더 오래 걸립니다. 그러나 해당 데이터로부터 실제 재구성에도 시간이 걸립니다. 여기서 PtychoNN이 등장합니다. 연구원들은 AI 기술을 사용하여 컴퓨터가 X선 데이터에서 이미지를 예측하고 재구성하도록 가르칠 수 있으며 기존 방법보다 300배 더 빠르게 수행할 수 있음을 보여주었습니다. 그 이상으로 PtychoNN은 양쪽 끝에서 프로세스 속도를 높일 수 있습니다.
감지기
인공 지능은 적시에 올바른 정보를 제공함으로써 분석 및 의사 결정 능력을 향상시킬 수 있습니다. 협업 지능:인간과 AI가 힘을 합치고 있습니다, Harvard Business Review, 2018년 7월. 농업, 의료 또는 통신에 적용되든 간에 기술은 인간의 작업이나 경험을 지원하고 향상시킵니다. 방대한 양의 데이터를 처리하기 위해 컴퓨팅 성능을 활용하는 기술은 인간에게는 거의 불가능한 시간 안에 방대한 분석과 통찰력을 제공할 수 있으므로 전문가는 우선 순위 사례를 식별하고 집중할 수 있습니다. 여기에서 사례와 이 머신 러닝
Senseye 베타가 진행 중인 이 게시물은 제품 사용에 대한 간략한 소개를 제공합니다. Senseye가 자동으로 데이터에서 통찰력 구축을 시작하고 대시보드 구축을 시작하기 위해 Senseye에 센서를 추가하는 단순성을 시연합니다. 아직 센서가 없더라도 Senseye 내에서 공개 데이터를 사용하는 방법을 보여드리겠습니다. 원시 센서 데이터 먼저 우리가 Thingspeak에서 모니터링하려는 채널입니다. https://thingspeak.com/channels/public으로 이동하면 사람들이 공개한 채널 목록을 찾을 수 있습니다. 이