AIbridge 라이브러리 간단한 적금앱, tinyDB 사용해서 간단하게 저장, 불러오기

이미지
라이브러리를 추가 해주기 http://www.appinventor.org/content/java-bridge/introduction/intro-android-studio <- 다운로드 위치 // you need the following imports in all Java Bridge apps //저의 깃헙 주소 : https://github.com/ndgndg91 import com.google.appinventor.components.runtime.Button; import com.google.appinventor.components.runtime.Component; import com.google.appinventor.components.runtime.EventDispatcher; import com.google.appinventor.components.runtime.Form; import com.google.appinventor.components.runtime.HandlesEventDispatching; import com.google.appinventor.components.runtime.HorizontalArrangement; import com.google.appinventor.components.runtime.Label; import com.google.appinventor.components.runtime.ListPicker; import com.google.appinventor.components.runtime.TextBox; import com.google.appinventor.components.runtime.TinyDB; import java.util.regex.*; // import any components you are going to use in your app. In this case, just Button // you can use the following header for all apps ...

selfcheckout app 안드로이드 스튜디오에서 zxing 이용, 구글 클라우드 vm instance 서버구축 mysql php 연동해서 만들기~

이미지
저번에는 MIT appinventor로 만들어 보았는데, 이번에는 안드로이드 스튜디오로 만들었습니다. zxing 라이브러리를 이용해서 qr코드를 스캔한 다음 스캔 결과값을 ArrayList<String>에 넣어서 리스트 뷰에 보여주고, 각각 선택 할 수 있도록 만들고, Delete item 버튼을 누를 경우 선택된 index 값이 삭제 될 수 있도록 만들었습니다. 그리고 구글 클라우드에 서버 설치후 mysql에서 웹에 Json으로 정보를 뿌려준후 안드로이드에서 웹에 있는 Json을 파싱해서, 내가 새로 만든 Product라는 클래스를 이용하여 ArrayList<Product>에 Json을 넣어서 각각 객체 리스트를 만들고, 상품정보와 스캔한 결과의 제품이름이 같을 경우 제품의 가격들을 총 지불할 금액에 계속적으로 더해주는 방식으로, 총 값을 계산할 수 있도록 하였다. Payment 버튼을 누르면 서버에 있는 mysql에 payment라는 테이블에 insert 되도록 구현해보았습니다. 소스코드는 생략하고 그냥 동영상만 일단 올리고 github 링크 첨부합니다. https://github.com/ndgndg91/Selfcheck NAS에 MariaDB 제품 정보들 Json http://ndgndg91.iptime.org/~ndgndg91/selfcheck/cal.php payment 버튼 클릭하면 payment 테이블에 pay_amount 컬럼에 insert <?php error_reporting(E_ALL); ini_set('display_errors',1); $link=mysqli_connect("localhost","root","","selfcheck"); if (!$link) {    echo "MySQL 접속 에러 : ";    echo mysql...

python으로 웹 데이터를 긁어보자

이미지
제가 긁을 페이지는 무신사인데, 정한이유가 여러가지가 있지만,, 생략하고.. 먼저 긁기 전에 페이지의 구조를 봅니다. 무신사에는 아주 많은 옷에 대한 정보들이 있는데 저는 바지만 긁어모을것이기 때문에,, 먼저 url구조를 보면 http://store.musinsa.com/app/product/detail/200979/0 200979가 해당 제품을 식별할 수 있게 해준다. 이숫자는 제품을 업로드한 순으로 추측되는데 이유는 정확히 모른다. 그 다음에 긁을 태그들을 분석한다. 가져와보니까 table형식으로 되어있다. 전체 html -> 필요한 태그 -> 필요한 정보를 얻을수 있도록 정제하기 뽑아내서 파일에 모아서 저장하기 따라서 허접하지만 여러 블로그들을 참고해서 노가다형식으로 코드를 짜봤다. 보완할 필요가 많은 코드지만 돌아가긴해서 ,, # -*- coding: utf-8 -*- from bs4 import BeautifulSoup from urllib.request import urlopen import re import csv def spider ( max_pages ): page = 346086 fixpage = page while page < max_pages: link = ' http://store.musinsa.com/app/product/detail/ ' + str (page) + ' /0 ' pantsno = link[ 44 : 50 ] f = urlopen(link) soup = BeautifulSoup(f, ' lxml ' ) a = soup.find_all( ' p ' ,{ ' class ' : ' item_categories ' }) b = bool (re.search( ' 하의 ' , str (a))) c = bool (soup....