Tag Archives: social

ПП „Атака“ злоупотребява с лични данни

Post Syndicated from Yovko Lambrev original https://yovko.net/ataka-zloupotreba-lichni-danni/

Тази сутрин предпразнично реших да погледна дали в ЦИК правилно е отразен подписа ми в подкрепа на регистрацията на „Демократична България“.

И това беше така, но… за моя огромна изненада открих, че мой „подпис“ е внесен и от ПП „Атака“ в тяхна подкрепа, без някога да съм се подписвал изобщо за тях. Разбира се, би ми било любопитно да науча откъде са се сдобили с личните ми данни, за да се разправям и с тези, които са им ги предоставили (без мое позволение), но едва ли ще имам шанс да разбера това.

Но пък жалбата ми до Комисията за защита на личните данни (КЗЛД) е вече написана и подписана.

Проверете и вие в ЦИК дали някоя партия или коалиция не е злоупотребила с личните ви данни и да е внесла ваш „подпис“ в своя подкрепа без да подозирате. Лесно е. Ако пък ви се наложи да пишете жалба до КЗЛД – този линк ще ви е от полза.

P.S. На 11.09.2019 получих от КЗЛД решение, че жалбата ми е приета за допустима и ми беше поискано да предоставя материал за почеркова експертиза. Направих го.

Насрочено е открито заседание през януари 2020 година.

Преди предварителните избори

Post Syndicated from Yovko Lambrev original https://yovko.net/priedi-priedvaritielnitie-izbori/

Десният догматизъм с неговата нетолерантност и догматична вяра в общи поучения ми пречи по същия начин, както и левите предразсъдъци, заблуди и утопии. Отказвам и винаги съм отказвал да се причислявам към десницата или левицата. Стоя извън тези политико-идеологически фронтове и съм независим от тях. Пазя своята свобода дотолкова, че без притеснения да имам за всичко собствено мнение и да не се чувствам ограничен от свои предходни самоограничения. Приемам дадено мое мнение да изглежда „левичарско”, друго пък – „десничарско”. И да си призная – все ми е едно. – Вацлав Хавел

Преди предварителните избори

Преди две години реших да споделя свои политически размишления в блога си. Те са валидни и до днес, защото продължавам да вярвам, че България има нужда от нова политическа генерация в целия спектър на ляво–дясното. И за малките деца е ясно, че БСП е все по-ретрограден динозавър, който си е присвоил левия спектър, но с нищо не заслужава да се олицетворява с него. Центърът и дясното също са обсебени от политически вампири като ДПС и ГЕРБ, а етикетите им служат единствено за маска, с която да заблуждават електората си (и безкритичните водещи на сутрешни блокове).

Напоследък беснея след всяко повторение на мантрата за обединение на „дясното“, защото не се изисква особен интелект, за да бъде осъзнато, че това е още от същото. Обединение с кого? И кое „дясно“? Нима точно безпринципните обединения не доведоха до това десетилетно циклене на място? И историческите компромиси с хора с „плаващ“ морал. Химнът за това лелеяно обединение може да звучи добре единствено в главите на тези, търсещи уютно пенсиониране в политическото блато или подмяна на една олигархия с друга. Само че това ще е провал на поредно поколение от вече безкрайния преход и е равносилно на нищо по-малко от национално предателство.

България има нужда от обединение на хората, които мислят в перспектива. С поглед в бъдещето. На хората с идеи. И ще е чудесно, ако оставим изтърканите заклинания в миналото, заедно с приносителите им.

България има нужда от смяна на поколението в политиката и обществения живот. И да ме прощават тези, родените преди 1970 година, но те вече направиха своите грешки. И някои от тях не бяха нито малки, нито простими. Време е да подкрепят някой 40 или дори 30-годишен кандидат.

През тази година предстоят поне две предизборни кампании – през пролетта за Европейски парламент и през есента за нови общински съветници и кметове. Ако няма междувременно и извънредни парламентарни избори. В рамките на една година България може да получи изцяло нова политическа перспектива. И тя може да е позитивна, с хоризонт за развитие и положителна промяна, ако не позволим на скелетите (отляво и отдясно) и политвампирите да подменят отново дневния ред, да унижават институциите и да разкъсват тъканта на гражданското общество.

В момента тече кампания за предварителни избори в „Да, България!“. Тя ще определи кандидатите на движението, които ще бъдат включени в общата листа на „Демократична България“ за Европейския парламент през май. Номинирани са чудесни хора, много от които млади, разумни, образовани, с идеи, които заслужават шанс и подкрепа. Голяма част са без опит в политиката, но с репутация и професионализъм в своята среда, достойни за уважение в много по-голяма степен от този в света на днешната политика. Момчета и момичета, които могат да бъдат носители на промяна.

Дори да не сте членове или симпатизанти на „Да, България!“, можете да гласувате на тези предварителни избори. Всичко, което е нужно, е предварително да се регистрирате преди 4 февруари 2019 г. Самото гласуване ще бъде електронно чрез мобилното приложение на движението (или пък по пощата, ако предпочитате).

Приканвам ви да го направите! Така ще подкрепите модела, в който кандидатите не се спускат от ръководството на организациите, а се определят в преки избори от всички. Ще участвате и в първите свободни електронни (макар и предварителни) избори в България. Можете да гласувате за повече от един кандидат – има значение реда, в който ще ги подредите.

В унисон със своя призив аз възнамерявам да подкрепя няколко млади хора, които познавам и чиито идеи за бъдещето споделям. Това са Владимир Джувинов (№15 в интегралната бюлетина) – колега, пловдивчанин, чиято номинация лично подкрепих заради амбицията му за електронно управление, компетенциите му в сферата на сигурността и Интернет, които стават все по-необходимо базово знание за всеки евродепутат; Мария Спирова (№2) заради доброто познаване на функционирането на европейските институции, активизма ѝ в защита на гласоподавателите зад граница и равенството на жените, както и журналистическата ѝ чувствителност към несправедливостите; и Емил А. Георгиев (№6) заради компетентността му по темите за авторските права и патентите в днешния дигитален свят, както и заради разбиранията му за значимостта на малкия и средния бизнес и идеите му за облекчаване на бюрокрацията пред съществуването му.

Изборът е труден, защото това вероятно е една от най-стойностните листи, които съм виждал досега на избори в България. Със сигурност бих могъл да подкрепя с открито сърце и още хора от списъка, но за себе си съм решил, че в крайна сметка трябва да направя своя извадка. Това е моята. Вашата може да е напълно различна, но… въпреки това – ГЛАСУВАЙТЕ!

Заглавна снимка: „Да, България!“

2018

Post Syndicated from Yovko Lambrev original https://yovko.net/2018-2/

2018

Тази равносметка ще е кратка.

Със зрелостта осъзнавам, че по-ценни са ми равносметките с поглед напред. Погледът назад се обезценява напълно във време, което се надбягва със себе си. Единственият проблем е усещането, че времето напоследък се движи назад. Но не за хубаво.

От 2018 ще оставя в спомените си само две смислени неща. Едното е Тоест. Другото е, че (най-накрая) приключих взаимоотношенията си с Openintegra. И двете са от списъка с мечтите, но второто остава завинаги в графата с несбъднатите. Уж по „взаимно съгласие“.

Интернет и ерозията на демокрацията

Post Syndicated from Yovko Lambrev original https://yovko.net/internet-democracy-erosion/

Интернет и ерозията на демокрацията

Текстът е написан специално за първия брой на вестник „К“ за критика, дебати и културни удоволствия, който се явява наследник на досегашния вестник Култура, чийто бранд издателят му реши да залепи на ново списание. Добавям го и тук – в своя личен online архив.

Имах късмет да открия интернет в зората на неговото създаване преди повече от 20 години. Днес за много хора би било трудно да си представят как изглеждаше и се използваше мрежата тогава. Буквално всичко беше различно.

Повечето потребители в тогавашното виртуално пространство бяха сякаш от една порода – предимно хора от научните среди, наивни романтици, обединени от идеята за създаване и споделяне най-вече на знания и опит, опиянени от вкуса на свободата да общуваш без граници. Не бяха нужни никакви регулатори или директиви – всички доброволно следваха няколко прости „правила за поведение в мрежата“ (нетикет), които гарантираха реда и добрия тон. Ако някой ги прекрачеше, просто получаваше забележка; и ако не си вземеше поука, попадаше в изолация и затруднения да си намери интересни събеседници. Всеки новопоявил се в интернет първо се оглеждаше тихо и с респект към установените модели, правила и авторитети. И се стараеше да гради репутация, преди да претендира за разпознаваемост и значимост във виртуалното пространство. Меритокрацията беше в пълен ход.

Този нетикет се спазваше дори в най-тъмните ъгълчета на мрежата, обикновено свързвани с не особено легални забавления или бизнес. Да бъдеш част от интернет тогава не бе нито евтино, нито лесно; и сякаш това филтрираше хора с интересно сечение от базисна грамотност, толерантна култура на общуване и нужното желание да инвестират част от доходите си за връзка с мрежата.

Краят на романтиката

Независимо дали гледаме на интернет от академична перспектива (като на библиотека за трупане на познание) или с предприемачески нагласи (като на потенциален необятен пазар), и за двете има нужда от хора. От много хора. Затова и пионерите в мрежата съвсем естествено си поставиха негласна обща цел да я направят по-достъпна за всички останали, снижавайки и техническите, и икономическите бариери пред достъпа до нея.

Недодяланите в началото браузъри, чието първично предназначение бе да се чете почти единствено и само текст, се преработваха многократно, докато се превърнаха в изключително лесни и универсални инструменти за достъп до всякакво съдържание в интернет. Уебсайтовете еволюираха от статични струпвания на документи през интерактивни и дизайнерски оформени творения на изкуството до днес, когато са буквално пълноценни софтуерни приложения, които работят в браузър.

Шум срещу смисъл

Всичко това имаше едничка цел – глобалната мрежа да може да се използва от всички. Цел, едновременно алтруистична и комерсиално-прагматична. Колкото повече потребители има интернет, толкова повече познание ще се трупа в мрежата, беше наивната нагласа на тези, които гледаха на мрежата като на световна библиотека със знание. Колкото повече потребители има интернет, толкова по-бързо ще расте потенциалът на онлайн бизнеса, си казваха предприемачите. И двете групи в пълна симбиоза си помагаха по пътя към общата цел.

Експоненциалното нарастване на интернет населението обаче направи невъзможно запазването на установената култура на общуване в мрежата от зората на възникването ѝ. Днес нетикет е странно звучаща и напълно непозната дума. Онлайн предприемачите нямаха осъзната потребност да ограмотяват новите потребители, нито интерес да изискват каквито и да било допълнителни усилия от тях. Пазарният стремеж да бъдат свалени всички бариери, за да е лесно и удобно на повече хора, доведе до това, че днешният интернет потребител се появява в мрежата с нагласата, че е център на Вселената, а мрежата до днес е тръпнала в очакване да попие и разпространи неговите гениални разсъждения по всяка злободневна тема.

И така, шумът надделя над полезността.

Илюзията за „безплатното“ потребление

Интернет е скъпо начинание. Винаги е било. И с включването на все повече хора, използващи все повече ресурси, то ще става все по-скъпо. Икономията от мащаба може да редуцира себестойността на издръжката на една платформа, разхвърляна върху нарастващия й брой ползватели, но потребителите във времето винаги ще искат повече и то с нагласата да плащат по-малко. Или нищо.

Бяха възпитани така от бурния стремеж на много онлайн начинания да се продадат „на зелено“ на инвеститора, който да плати за разработката му. Моделът на Силициевата долина за финансиране на сурови идеи в зародишна фаза почти единствено на база потенциал за растеж доведе до търсене на такива бизнес модели, които „зарибяват“ потребители, предлагайки им безплатно удобни услуги само за да бъдат привлечени в обсега на една или друга платформа.

Този модел е порочен не само защото възпитава погрешната нагласа, че всичко в Интернет може и трябва да бъде безплатно, а и по две други много ключови причини. Едната е, че класическите пазарни отношения, свързани със заплащането на една или друга услуга, стават неконкурентни, бивайки притискани от „безплатни“ алтернативи. Втората е, че всъщност потребителите плащат много висока цена, в общия случай без дори да подозират.

Потребителят не е клиент, а стока

Предлагайки безплатни услуги, безплатно пространство за файлове и снимки или безплатна електронна поща, различните интернет платформи имат една цел – да привлекат възможно най-много потребители в своята орбита и територия. Тези потребители живеят с илюзията, че са клиенти, но горчивата истина е, че не са. Основната причина те да бъдат ухажвани и техните потребности да бъдат задоволявани е, че докато активно присъстват и използват платформата, те натрупват и съхраняват своя информация в нея. Именно тази информация е цената, с която заплащат използването на „безплатните“ услуги.

Повечето хора не считат, че техните файлове, снимки и лична кореспонденция представляват интерес за някого. Но натрупването на огромни количества подобни данни от множество хора позволява те да бъдат статистически обработвани. Компютърни алгоритми ги анализират, като на тази база са в състояние да правят допускания за нашите интереси, намерения за покупки на стоки или политически симпатии. Изследват взаимоотношенията ни с останалите хора, с които контактуваме, опитват да установят как си влияем едни на други, кои са лидерите на мнения сред нас, дори как да бъдем провокирани да реагираме на едно или друго или да гласуваме по определен начин.

Нашите данни са нашата дигитална проекция и битката на интернет гигантите не е за нас. Обработените ни данни и извлечената от тях информация са стока, която може да бъде продавана скъпо – включително за маркетингови и политически кампании. Нашите данни са чудесен инструмент за манипулация на нас самите.

Данните са новото злато

След земеделската революция най-ценният ресурс беше земята, след индустриалната станаха машините. Започва нова ера, в която най-ценното нещо – новият петрол и новото злато – ще бъдат данните.

Изследване на Facebook, проведено с над 85 хиляди потребители на платформата, показа прецизността, с която алгоритмите на социалната мрежа преценяват хората. Доброволците са помолени да попълнят въпросник за своите предпочитания и вкусове. За същото са запитани техни приятели, колеги, роднини и съпрузи, за да се направи сравнение колко добре ги познават. Алгоритмите на Facebook не разполагат с отговорите на въпросниците, но са активирани да направят същата преценка само на базата на лайковете и информацията в профилите на изследваните потребители. Оказва се, че при едва 10 лайка Facebook има по-точна преценка от колегите, при 70 – от приятелите, при 150 – от роднините, а при 300 – от съпрузите. *

Средната успеваемост на човек за разпознаване на лице по снимка е около 94-95%. Софтуерните алгоритми вече ни надминаха – тяхната успеваемост за същото днес е 97%.

Всичко това и още много други неща са възможни благодарение на нашите данни. Особено като добавим към тях и биометричните, събирани от умните ни часовници, фитнес гривни и все повече други устройства в бъдеще. Живеем на ръба на исторически момент, в който софтуерът (ще) ни познава по-добре от нас самите.

Разбира се, това не е непременно лошо. Ако софтуерът знае какво искам за вечеря, защо да не го оставя да поръча вместо мен? Данни могат да помогнат и за лечение на различни заболявания. Статистически натрупвания за медицински състояния при други хора могат да се използват от нашите устройства за разпознаване и ранна диагностика на тревожни симптоми без намесата на лекар. Умният часовник на Apple вече може да предупреди за отклонения в сърдечния ви ритъм. Това е възможно заради натрупани медицински данни, събрани от много пациенти. Или пък разпознава, че сте паднал, по движението на ръцете ви при падане и ако не реагирате до половин минута, автоматично ще повика помощ, изпращайки географските координати на мястото, където се намирате.

Натрупани данни обаче бяха ползвани умишлено за политически манипулации и въздействие и при избирането на Тръмп за президент, и при референдума за Брекзит. Най-напред, за да бъдат селектирани колебаещи се хора, върху чието мнение по-лесно може да бъде повлияно, след което същите хора да бъдат облъчени с нужните послания, които биха ги побутнали да вземат желаното решение. И всичко това просто е струвало определена сума пари.

Важно е кой притежава и контролира данните

Проблемът е сложен. От една страна, защото има разминавания в разбиранията за това чия собственост са данните, съхранявани в различните интернет платформи. В общите си условия те се опитват да си присвоят съгласието ви да притежават вашите данни, поставяйки това като условие да ползвате услугите им. В добавка към това хората подценяват колко ценни са техните данни – не толкова конкретно, а като част от извадка, определена група или география.

От друга страна, темповете на технологичния прогрес са такива, че ако едно общество си постави твърде строги бариери пред събирането и анализирането на данни, това може да бъде сериозна пречка пред иновациите и да е причина да бъде изпреварено от други държави или общности. Най-тъжното е, че рискът това да се случи е по-голям в западните общества, където човешките права имат по-висока стойност.

Как да бъде намерен балансът, ще бъде въпрос, който ще определи посоката на развитие на човечеството и засяга пряко темата за социалните неравенства, разпределението на богатството и мира на планетата.

Не на последно място остава притеснението, че ако допуснем, че алгоритмите ни познават достатъчно добре, за да взимат решения от наше име, те ще имат и възможността да манипулират желанията ни така, че да пожелаем да последваме техния избор. Или нечий друг. И това отново да струва определена сума пари.

Гравитацията на платформите

Социалните мрежи са девиация в еволюцията на интернет. Подхлъзване. Недоразумение, което бе създадено именно от антипазарните модели на „безплатните“ услуги и съдържание.

Първоначалната идея и техническа реализация на глобалната мрежа бе да свързва компютрите (сървърите) на много хора, компании и държави по света без централна власт, без незаобиколими острови на влияние и даже със защитни механизми мрежата да бъде винаги достъпна, дори ако някое парче от нея временно изчезне или спре. Идеята на интернет бе да бъде максимално разпределена и децентрализирана мрежа.

Стремежът за събиране на потребители и техните данни в няколко глобални платформи като Google, Facebook, Amazon и др., които постепенно парцелираха мрежата, обаче доведе до един твърде централизиран интернет, в който е трудно да се противостои на гравитацията на гигантите.

Човешките навици, инерция и стремеж за приобщаване на роднини и познати усилват още повече тази гравитация. Така гигантските платформи се превърнаха в световен градски мегдан. И в непреодолим фактор, в технологични Голиати, които, за разлика от библейския си първообраз, са твърде големи, за да бъде допусната хипотеза да се провалят, без това да не е твърде болезнено за мнозина. Засега няма и здравословен механизъм, който да провокира платформите да еволюират в нова посока. А потребителите самоволно и безразсъдно се оставят да бъдат техни заложници.

Ерозия на демокрацията

Наивността на пионерите в интернет, че в мрежата разумът, прагматичността, смисълът и фактите някак по подразбиране ще продължат да надделяват над заблудите и глупостите, се оказа фундаментална грешка. Социалните мрежи се превърнаха в комерсиален усилвател без филтър за адекватност и критерии за достоверност. Централизираният около няколко ключови платформи интернет е силно зависим от техните икономически и политически интереси. Медиите също попаднаха в капана на зависимостта от усилващата роля на социалните мрежи и основно Facebook и така загубиха пряката връзка с публиката си. А критичното мислене не се оказа сред силните качества на масовия интернет потребител.

Най-тревожното на това развитие е, че води до сътресения, които се превръщат в систематична заплаха за демокрацията. Комбинацията от ефективни технологични инструменти за манипулация на общественото мнение, зависими от същите инструменти медии и ниското ниво на критично мислене са перфектната буря, която е в състояние да разруши базисни обществени механизми.

Добрата новина е, че технологиите винаги еволюират и вече се забелязват нови усилия за бъдещ децентрализиран и разпределен интернет. Остава без отговор обаче въпросът дали единствено технологиите трябва да виним за заблатяването на днешната глобална мрежа и само на тях ли да възлагаме надеждите за развитие? И ако продължаваме да подценяваме образованието, етикета и хуманизма, кое ни гарантира, че няма да допуснем същата грешка – отново да надценим способностите на човека?

* Ювал Ноа Харари описва това изследване в книгата си „Homo Deus. Кратка история на бъдещето“ (2018, изд. „Изток-Запад“)

Bona diada, Catalunya!

Post Syndicated from Yovko Lambrev original https://yovko.net/bona-diada-catalunya/

Bona diada, Catalunya!

"Хиляди протестираха в Барселона срещу каталунския сепаратизъм", пише вчера привечер "Дневник". Факт е, че това е една от малкото ключови медии у нас, които изобщо следят отблизо темата. Но уви, често пропускат важни детайли.

А важен детайл за всички про-юнионистки демонстрации в Барселона от миналата есен насам е техният екскурзионен характер. Вчерашната също не направи изключение. С което не искам да кажа, че няма каталунци, които подкрепят идеята за единство с Испания, но е добре да е ясно, че юнионистите си осигуряват площадна подкрепа с влакове и автобуси. Дали защото не са убедени в подкрепата на място в каталунската столица, или защото юнионистките демонстрации отблъскват много хора заради хулиганските прояви и фашизоидните изпълнения, с които неизменно са изпъстрени техните прояви… Но за това – малко по-късно.

Първо, нека малко да се вторачим във въпросните хиляди. Полицията твърди, че са били две хиляди, а организаторите се поизхвърлиха с четиристотин хиляди. Една местна медия си направи труда да преброи хората на площада човече по човече от снимка с висока резолюция, направена на сборния пункт малко преди началото на шествието. Преброили са малко под 8000 души. Ето въпросната снимка:

Тревожни са обаче едни други снимки. А най-опасното е, че медиите здраво стискат очи за тях. Например тази:

Или пък тази (като е добре да се забележи не само татуираната свастика на ръката на единия индивид, а и пръстенът на неговата дружка):

Можем, разбира се, да спорим дали точно това е лицето на испанския юнионизъм (или пък задникът – понеже има подходяща снимка, ей тук долу). Но по-наблюдателните ще забележат любопитни гербове, знамена, татуировки, включително сърпочукове и петолъчки. Гмежта е необятна.

Факт е, че организаторите на тези демонстрации не могат (или не искат) да озаптят и да се разграничат от крайнодесните и фашистки елементи, които са неразделна част от техните прояви:

В Италия, в Германия, Франция, Великобритания, Япония и навсякъде ги наричат фашисти. В Испания (и в българските медии) са противници на каталунския сепаратизъм.

Всички тези неща се случват под прикритието на псевдолиберални партии като Гражданите/ALDE (които най-често са съорганизатори на юнионистките манифестации в Каталуния), мълчанието на иначе гръмогласния лидер на Алианса на либералите и демократите в Европа Guy Verhofstadt (има нужда от гласовете на Гражданите в Европарламента човекът и си мълчи, та се късa) и разбира се, широко затворените очи на Европа.

Та не се чудете, че четете за смехотворни манифестацийки, но почти не се споменава, че в Испания, скоро ще стане година, без съд и присъда лежат политически затворници. А други са в изгнание зад граница. Защото са проявили характер и са организирали референдум, на който хората да изразят свободната си воля.

Многохилядна демонстрация в Барселона наистина ще има, но утре, на 11 септември – националния празник на Каталуния. Досега прояви на омраза, сблъсъци и инциденти на тази дата никога не е имало, въпреки участието на наистина стотици хиляди души. И тази година демонстрантите ще са много. Ще бъдат толкова много, че безсилието на испанското централно правителство стигна до там да затвори въздушното пространство над Барселона утре, за да не се види колко много каталунци ще поискат свобода за политическите си затворници.

Bona diada, Catalunya!

Тихо

Post Syndicated from Yovko Lambrev original https://yovko.net/silence/

Тихо

Сънят на разума ражда чудовища. – Франсиско Гоя

Когато започна промяната през 1989-та, бях на 15 години. Нямах право на глас в първите свободни избори, но се чувствах достатъчно зрял да следя и да се интересувам живо от всичко, което се случваше в страната ми. Помня лозунгите на първите митинги, когато сред всички други искания на хората по площадите, беше и вопълът за свободна преса. Помня еуфорията, с която в началото на 1990-та бе посрещнат първият брой на вестник "Демокрация". Чаках на опашка през февруарския ден пред кварталния РЕП, за да се сдобия с една от малкото бройки, които свършиха за минути.

Четиридесет и пет тиранични години и един от най-античовешките режими, които историята разпознава, не бяха унищожили глада на българите за свободна преса и свободно слово. Идеята колко важно е това беше излязла от сферата на рационалното и мнозина я усещаха през кожата си. Обществото ни бе като оголен нерв и проявяваше чувствителност, която не съм предполагал, че толкова лесно ще загуби.

Днес е тихо.

Едва няколко правителства за двойно по-кратко време и един подменен преход успяха да убият това, което 45 години грозен тоталитаризъм не успя. Това, за което мнозина бяха готови да протестират денонощно, да се бият с милицията… сега е отстъпило пред това да заведем децата на английски, да си плащаме ипотеката и да се правим, че проблемите на останалите не ни засягат.

Срещнах се с Лили Маринкова броени дни преди старта на Тоест. Не я познавах, свързахме се чрез общи контакти. Поводът за срещата и това за какво си говорихме нямат значение днес, но никога няма да забравя тъгата, която сякаш бе попила в нея. Не сме общували след това.

Но без значение дали споделям или не нейните гледни точки за едно или друго, аз бих ги чул с интерес. Тя е журналист – крайъгълен камък в тази професия. Такива камъни вече почти няма. Не останаха.

Затова е и тихо.

Тихо е и защото не се чуват нито освирквания, нито тъпани, или друга някаква шумотевица пред Националното радио, която да стресне удобните безгръбначни в администрацията му. Не се виждат тълпи от други журналисти пред сградата. Вярно, някои поне разказаха историята.

Тихо е вероятно и защото колегите ѝ са на море, разнасят деца от балет на английски или са заети да си плащат ипотеката. И забравят, че утре ще е някой от тях. Следващият.

Тихо е, защото ги няма и останалите, които отглеждат деца и плащат ипотеки. Вече не им е тревожно за свободната преса, защото имат Фейсбук. Не се припознават в проблемите на малкия бизнес, защото работят в голям офис. Не са техни грижите на музикантите от БНР, защото слушат Spotify. Няма значение какво се случва по Черноморието, защото те плажуват в Гърция. Не припознават грижите на съседа, защото и той не се вълнува от техните. И между балета, пианото и английския удобно забравяме, че за децата на България (а и за нас, възрастните) е най-важно да не живеем в общество с така разкъсана тъкан.

С почти 20% за последните 10 години е спаднало разбирането, че благополучието на останалите и загрижеността за тях е ключово за едно общество. Индивидуализмът може да ни помогне да оцелеем в криза, да избягаме, да се спасим поединично, но алтруизмът и емпатията са това, което ни държи заедно като общество. Не произходът, нито историите за велико минало или светло бъдеще. Загрижеността за останалите от групата е това, което създава усещането за човечност. Заради чиято липса бягаме другаде или се затваряме в себе си. Но алтруизъм и емпатия не поникват в парка. Те се възпитават. А ние правим обратното.

Унижението в БНР от тази седмица не е за Лили Маринкова – за цялата гилдия е, и за всеки свободен българин. Това е демонстрация как могат да те умножат по нула. Опит за внушение, че справедливостта е недостижима, а стремежът да докажеш правотата – безполезен. Тишината работи точно за това.

И докато не започне да ни пука за останалите… ще става все по-тихо. А тишината ще ражда чудовища.

Електронно гласуване в “Да, България!”

Post Syndicated from Yovko Lambrev original https://yovko.net/e-voting-yes-bulgaria/

Електронно гласуване в

В събота се проведе първата Национална конференция на Движение "Да, България!".

Право на участие в нея имат абсолютно всички членове на организацията (за разлика от други партии, които излъчват делегати за подобни форуми). Но няма да ви занимавам с речи, нито с политически послания, а с един прагматичен нюанс, който е пример за политика, приложена на практика.

Ако не сте разбрали, понеже повечето национални медии се страхуват да отразяват мнения и действия на "Да, България!" и Демократична България, всички присъствали на конференцията гласуваха електронно през мобилното приложение на партията за iOS и Android. На 23 юни 2018 г., за първи път в България, една организация институционализира решенията на най-висшия си форум чрез електронен вот. И това вече е исторически факт! Това е и политика, защото приложено в нужния мащаб би демократизирало още повече процеса по взимане на решения, вкл. дистанционно. А това е от ключово значение за включването и участието на повече хора във взимането на решения.

Приложено в общински или в национален мащаб, подобно решение (не непременно същото) може да се прилага за сондиране на обществени нагласи на гражданите в общината, за участие в местни референдуми и избори, дава възможност за участие на българите зад граница.

Разбира се, има специфични разлики и изисквания при явно гласуване във вътрешно-организационен контекст и при гласуване на национални или местни избори с таен вот. И тези разлики и продробности са важни, но няма непреодолими технологични пречки тези изисквания и особености да бъдат съобразени и реализирани. Стига да има воля за това в държавата ни.

Аз участвах само в бета-тестове преди събитието и помагах по време на конференцията на хора, които срещаха затруднения. Никога няма да бъдат обаче достатъчни овациите и благодарностите за неколцината доброволци от "Да, България!", които направиха тази система и приложенията реалност!

От опита ми в бизнеса и в технологиите зная, че е напълно обичайно да има поне малко съпротива и мрънкане, когато караш хората да ползват нещо ново, особено такова, с което не са свикнали. Огромната ми изненада бе, че в събота такова мрънкане нямаше – дори хората, на които помагах и имаха затруднения, бяха изключително позитивно настроени и с нагласата да свикнат и да се справят, и само след първите няколко гласувания моята помощ вече не им беше нужна.

Електронно гласуване в

За да се пести време и грешки от влизане и излизане в приложението с имена и пароли, на поканите, разпратени до всички, бяха отпечатани QR-кодове (индивидуален за всеки член). Те съдържаха token, с който хората можеха да влязат в системата, като покажат този код на камерата на смартфона си. Токъните бяха анулирани веднага след края на конференцията.

Технологично решението позволява дистанционно и неприсъствено гласуване, но има юридически ограничения да го осъществим, затова беше въведен процес по check-in на място пред залата на конференцията, така че само хора с токъни/кодове, които са минали през вратата, можеха да гласуват по време на конференцията.

Електронно гласуване в

Участниците можеха да наблюдават резултатите от всяко едно гласуване на личните си устройства.

Електронно гласуване в

Вероятно най-полезният момент бе тогава, когато трябваше да попълним състава на един от органите на партията с 31 нови души. За тази цел бяха номинирани 43-ма. В обичайната ситуация това би означавало да гласуваме с вдигане на ръка за всеки един поотделно, да броим гласовете за всеки, да сумираме (в голяма зала са нужни няколко преброители, които да се разпределят по няколко реда) и накрая комисия да сортира кои са тези 31, които имат най-много гласове. Да оставим настрана възможните грешки при броенето.

Друга опция бе да се направи интегрална бюлетина, да се разпечата, да гласуваме с отбелязване върху бюлетината (с възможните грешки и труден контрол дали някой не е гласувал за повече от 31 души), да се обработват бюлетините една по една (при повече от 500 гласуващи), което отнема адски много време, измеримо в часове.

Докато с електронното гласуване на екраните на телефоните се появи списък с имената на номинираните и възможност да се отбележи всяко едно от тях (като автоматично системата следи да не могат да бъдат маркирани повече от 31 имена) – т.е. няма как бюлетината да стане невалидна. Тъй като кандидатите бяха доста и човек не може да познава всички, имаше подготвени малки книжки с кратки представяния на номинираните и гласуващите имаха около 30 минути за това гласуване, за да преценят на кои от тях биха дали доверието си. Резултатите бяха готови до 5 минути след това. Иначе казано, всичко приключи в рамките на около половин час. Бързо, лесно и удобно.

Посланието е ясно – ако една "малка извънпарламентарна партия" (според Б.Б.) може да го направи, при това съвсем без пари, защото определено не разполагаме с много средства… би било далеч по-лесно за големите, които прибират прилични субсидии, да го реализират. Вие си отговорете на въпроса защо дори не се опитват!

Няма какво да коментирам държавата, за която темата продължава да отсъства, дори след ясното произнасяне на гражданите на референдум, че искат електронно гласуване. Единственият валиден въпрос продължава да бъде: докога ще търпим?


Заглавна снимка: Йовко Ламбрев
Снимки в текста: “Да, България!”

Storing Encrypted Credentials In Git

Post Syndicated from Bozho original https://techblog.bozho.net/storing-encrypted-credentials-in-git/

We all know that we should not commit any passwords or keys to the repo with our code (no matter if public or private). Yet, thousands of production passwords can be found on GitHub (and probably thousands more in internal company repositories). Some have tried to fix that by removing the passwords (once they learned it’s not a good idea to store them publicly), but passwords have remained in the git history.

Knowing what not to do is the first and very important step. But how do we store production credentials. Database credentials, system secrets (e.g. for HMACs), access keys for 3rd party services like payment providers or social networks. There doesn’t seem to be an agreed upon solution.

I’ve previously argued with the 12-factor app recommendation to use environment variables – if you have a few that might be okay, but when the number of variables grow (as in any real application), it becomes impractical. And you can set environment variables via a bash script, but you’d have to store it somewhere. And in fact, even separate environment variables should be stored somewhere.

This somewhere could be a local directory (risky), a shared storage, e.g. FTP or S3 bucket with limited access, or a separate git repository. I think I prefer the git repository as it allows versioning (Note: S3 also does, but is provider-specific). So you can store all your environment-specific properties files with all their credentials and environment-specific configurations in a git repo with limited access (only Ops people). And that’s not bad, as long as it’s not the same repo as the source code.

Such a repo would look like this:

project
└─── production
|   |   application.properites
|   |   keystore.jks
└─── staging
|   |   application.properites
|   |   keystore.jks
└─── on-premise-client1
|   |   application.properites
|   |   keystore.jks
└─── on-premise-client2
|   |   application.properites
|   |   keystore.jks

Since many companies are using GitHub or BitBucket for their repositories, storing production credentials on a public provider may still be risky. That’s why it’s a good idea to encrypt the files in the repository. A good way to do it is via git-crypt. It is “transparent” encryption because it supports diff and encryption and decryption on the fly. Once you set it up, you continue working with the repo as if it’s not encrypted. There’s even a fork that works on Windows.

You simply run git-crypt init (after you’ve put the git-crypt binary on your OS Path), which generates a key. Then you specify your .gitattributes, e.g. like that:

secretfile filter=git-crypt diff=git-crypt
*.key filter=git-crypt diff=git-crypt
*.properties filter=git-crypt diff=git-crypt
*.jks filter=git-crypt diff=git-crypt

And you’re done. Well, almost. If this is a fresh repo, everything is good. If it is an existing repo, you’d have to clean up your history which contains the unencrypted files. Following these steps will get you there, with one addition – before calling git commit, you should call git-crypt status -f so that the existing files are actually encrypted.

You’re almost done. We should somehow share and backup the keys. For the sharing part, it’s not a big issue to have a team of 2-3 Ops people share the same key, but you could also use the GPG option of git-crypt (as documented in the README). What’s left is to backup your secret key (that’s generated in the .git/git-crypt directory). You can store it (password-protected) in some other storage, be it a company shared folder, Dropbox/Google Drive, or even your email. Just make sure your computer is not the only place where it’s present and that it’s protected. I don’t think key rotation is necessary, but you can devise some rotation procedure.

git-crypt authors claim to shine when it comes to encrypting just a few files in an otherwise public repo. And recommend looking at git-remote-gcrypt. But as often there are non-sensitive parts of environment-specific configurations, you may not want to encrypt everything. And I think it’s perfectly fine to use git-crypt even in a separate repo scenario. And even though encryption is an okay approach to protect credentials in your source code repo, it’s still not necessarily a good idea to have the environment configurations in the same repo. Especially given that different people/teams manage these credentials. Even in small companies, maybe not all members have production access.

The outstanding questions in this case is – how do you sync the properties with code changes. Sometimes the code adds new properties that should be reflected in the environment configurations. There are two scenarios here – first, properties that could vary across environments, but can have default values (e.g. scheduled job periods), and second, properties that require explicit configuration (e.g. database credentials). The former can have the default values bundled in the code repo and therefore in the release artifact, allowing external files to override them. The latter should be announced to the people who do the deployment so that they can set the proper values.

The whole process of having versioned environment-speific configurations is actually quite simple and logical, even with the encryption added to the picture. And I think it’s a good security practice we should try to follow.

The post Storing Encrypted Credentials In Git appeared first on Bozho's tech blog.

Working with the Scout Association on digital skills for life

Post Syndicated from Philip Colligan original https://www.raspberrypi.org/blog/working-with-scout-association-digital-skills-for-life/

Today we’re launching a new partnership between the Scouts and the Raspberry Pi Foundation that will help tens of thousands of young people learn crucial digital skills for life. In this blog post, I want to explain what we’ve got planned, why it matters, and how you can get involved.

This is personal

First, let me tell you why this partnership matters to me. As a child growing up in North Wales in the 1980s, Scouting changed my life. My time with 2nd Rhyl provided me with countless opportunities to grow and develop new skills. It taught me about teamwork and community in ways that continue to shape my decisions today.

As my own kids (now seven and ten) have joined Scouting, I’ve seen the same opportunities opening up for them, and like so many parents, I’ve come back to the movement as a volunteer to support their local section. So this is deeply personal for me, and the same is true for many of my colleagues at the Raspberry Pi Foundation who in different ways have been part of the Scouting movement.

That shouldn’t come as a surprise. Scouting and Raspberry Pi share many of the same values. We are both community-led movements that aim to help young people develop the skills they need for life. We are both powered by an amazing army of volunteers who give their time to support that mission. We both care about inclusiveness, and pride ourselves on combining fun with learning by doing.

Raspberry Pi

Raspberry Pi started life in 2008 as a response to the problem that too many young people were growing up without the skills to create with technology. Our goal is that everyone should be able to harness the power of computing and digital technologies, for work, to solve problems that matter to them, and to express themselves creatively.

In 2012 we launched our first product, the world’s first $35 computer. Just six years on, we have sold over 20 million Raspberry Pi computers and helped kickstart a global movement for digital skills.

The Raspberry Pi Foundation now runs the world’s largest network of volunteer-led computing clubs (Code Clubs and CoderDojos), and creates free educational resources that are used by millions of young people all over the world to learn how to create with digital technologies. And lots of what we are able to achieve is because of partnerships with fantastic organisations that share our goals. For example, through our partnership with the European Space Agency, thousands of young people have written code that has run on two Raspberry Pi computers that Tim Peake took to the International Space Station as part of his Mission Principia.

Digital makers

Today we’re launching the new Digital Maker Staged Activity Badge to help tens of thousands of young people learn how to create with technology through Scouting. Over the past few months, we’ve been working with the Scouts all over the UK to develop and test the new badge requirements, along with guidance, project ideas, and resources that really make them work for Scouting. We know that we need to get two things right: relevance and accessibility.

Relevance is all about making sure that the activities and resources we provide are a really good fit for Scouting and Scouting’s mission to equip young people with skills for life. From the digital compass to nature cameras and the reinvented wide game, we’ve had a lot of fun thinking about ways we can bring to life the crucial role that digital technologies can play in the outdoors and adventure.

Compass Coding with Raspberry Pi

We are beyond excited to be launching a new partnership with the Raspberry Pi Foundation, which will help tens of thousands of young people learn digital skills for life.

We also know that there are great opportunities for Scouts to use digital technologies to solve social problems in their communities, reflecting the movement’s commitment to social action. Today we’re launching the first set of project ideas and resources, with many more to follow over the coming weeks and months.

Accessibility is about providing every Scout leader with the confidence, support, and kit to enable them to offer the Digital Maker Staged Activity Badge to their young people. A lot of work and care has gone into designing activities that require very little equipment: for example, activities at Stages 1 and 2 can be completed with a laptop without access to the internet. For the activities that do require kit, we will be working with Scout Stores and districts to make low-cost kit available to buy or loan.

We’re producing accessible instructions, worksheets, and videos to help leaders run sessions with confidence, and we’ll also be planning training for leaders. We will work with our network of Code Clubs and CoderDojos to connect them with local sections to organise joint activities, bringing both kit and expertise along with them.




Get involved

Today’s launch is just the start. We’ll be developing our partnership over the next few years, and we can’t wait for you to join us in getting more young people making things with technology.

Take a look at the brand-new Raspberry Pi resources designed especially for Scouts, to get young people making and creating right away.

The post Working with the Scout Association on digital skills for life appeared first on Raspberry Pi.

Continued: the answers to your questions for Eben Upton

Post Syndicated from Alex Bate original https://www.raspberrypi.org/blog/eben-q-a-2/

Last week, we shared the first half of our Q&A with Raspberry Pi Trading CEO and Raspberry Pi creator Eben Upton. Today we follow up with all your other questions, including your expectations for a Raspberry Pi 4, Eben’s dream add-ons, and whether we really could go smaller than the Zero.

Live Q&A with Eben Upton, creator of the Raspberry Pi

Get your questions to us now using #AskRaspberryPi on Twitter

With internet security becoming more necessary, will there be automated versions of VPN on an SD card?

There are already third-party tools which turn your Raspberry Pi into a VPN endpoint. Would we do it ourselves? Like the power button, it’s one of those cases where there are a million things we could do and so it’s more efficient to let the community get on with it.

Just to give a counterexample, while we don’t generally invest in optimising for particular use cases, we did invest a bunch of money into optimising Kodi to run well on Raspberry Pi, because we found that very large numbers of people were using it. So, if we find that we get half a million people a year using a Raspberry Pi as a VPN endpoint, then we’ll probably invest money into optimising it and feature it on the website as we’ve done with Kodi. But I don’t think we’re there today.

Have you ever seen any Pis running and doing important jobs in the wild, and if so, how does it feel?

It’s amazing how often you see them driving displays, for example in radio and TV studios. Of course, it feels great. There’s something wonderful about the geographic spread as well. The Raspberry Pi desktop is quite distinctive, both in its previous incarnation with the grey background and logo, and the current one where we have Greg Annandale’s road picture.

The PIXEL desktop on Raspberry Pi

And so it’s funny when you see it in places. Somebody sent me a video of them teaching in a classroom in rural Pakistan and in the background was Greg’s picture.

Raspberry Pi 4!?!

There will be a Raspberry Pi 4, obviously. We get asked about it a lot. I’m sticking to the guidance that I gave people that they shouldn’t expect to see a Raspberry Pi 4 this year. To some extent, the opportunity to do the 3B+ was a surprise: we were surprised that we’ve been able to get 200MHz more clock speed, triple the wireless and wired throughput, and better thermals, and still stick to the $35 price point.

We’re up against the wall from a silicon perspective; we’re at the end of what you can do with the 40nm process. It’s not that you couldn’t clock the processor faster, or put a larger processor which can execute more instructions per clock in there, it’s simply about the energy consumption and the fact that you can’t dissipate the heat. So we’ve got to go to a smaller process node and that’s an order of magnitude more challenging from an engineering perspective. There’s more effort, more risk, more cost, and all of those things are challenging.

With 3B+ out of the way, we’re going to start looking at this now. For the first six months or so we’re going to be figuring out exactly what people want from a Raspberry Pi 4. We’re listening to people’s comments about what they’d like to see in a new Raspberry Pi, and I’m hoping by early autumn we should have an idea of what we want to put in it and a strategy for how we might achieve that.

Could you go smaller than the Zero?

The challenge with Zero as that we’re periphery-limited. If you run your hand around the unit, there is no edge of that board that doesn’t have something there. So the question is: “If you want to go smaller than Zero, what feature are you willing to throw out?”

It’s a single-sided board, so you could certainly halve the PCB area if you fold the circuitry and use both sides, though you’d have to lose something. You could give up some GPIO and go back to 26 pins like the first Raspberry Pi. You could give up the camera connector, you could go to micro HDMI from mini HDMI. You could remove the SD card and just do USB boot. I’m inventing a product live on air! But really, you could get down to two thirds and lose a bunch of GPIO – it’s hard to imagine you could get to half the size.

What’s the one feature that you wish you could outfit on the Raspberry Pi that isn’t cost effective at this time? Your dream feature.

Well, more memory. There are obviously technical reasons why we don’t have more memory on there, but there are also market reasons. People ask “why doesn’t the Raspberry Pi have more memory?”, and my response is typically “go and Google ‘DRAM price’”. We’re used to the price of memory going down. And currently, we’re going through a phase where this has turned around and memory is getting more expensive again.

Machine learning would be interesting. There are machine learning accelerators which would be interesting to put on a piece of hardware. But again, they are not going to be used by everyone, so according to our method of pricing what we might add to a board, machine learning gets treated like a $50 chip. But that would be lovely to do.

Which citizen science projects using the Pi have most caught your attention?

I like the wildlife camera projects. We live out in the countryside in a little village, and we’re conscious of being surrounded by nature but we don’t see a lot of it on a day-to-day basis. So I like the nature cam projects, though, to my everlasting shame, I haven’t set one up yet. There’s a range of them, from very professional products to people taking a Raspberry Pi and a camera and putting them in a plastic box. So those are good fun.

Raspberry Shake seismometer

The Raspberry Shake seismometer

And there’s Meteor Pi from the Cambridge Science Centre, that’s a lot of fun. And the seismometer Raspberry Shake – that sort of thing is really nice. We missed the recent South Wales earthquake; perhaps we should set one up at our Californian office.

How does it feel to go to bed every day knowing you’ve changed the world for the better in such a massive way?

What feels really good is that when we started this in 2006 nobody else was talking about it, but now we’re part of a very broad movement.

We were in a really bad way: we’d seen a collapse in the number of applicants applying to study Computer Science at Cambridge and elsewhere. In our view, this reflected a move away from seeing technology as ‘a thing you do’ to seeing it as a ‘thing that you have done to you’. It is problematic from the point of view of the economy, industry, and academia, but most importantly it damages the life prospects of individual children, particularly those from disadvantaged backgrounds. The great thing about STEM subjects is that you can’t fake being good at them. There are a lot of industries where your Dad can get you a job based on who he knows and then you can kind of muddle along. But if your dad gets you a job building bridges and you suck at it, after the first or second bridge falls down, then you probably aren’t going to be building bridges anymore. So access to STEM education can be a great driver of social mobility.

By the time we were launching the Raspberry Pi in 2012, there was this wonderful movement going on. Code Club, for example, and CoderDojo came along. Lots of different ways of trying to solve the same problem. What feels really, really good is that we’ve been able to do this as part of an enormous community. And some parts of that community became part of the Raspberry Pi Foundation – we merged with Code Club, we merged with CoderDojo, and we continue to work alongside a lot of these other organisations. So in the two seconds it takes me to fall asleep after my face hits the pillow, that’s what I think about.

We’re currently advertising a Programme Manager role in New Delhi, India. Did you ever think that Raspberry Pi would be advertising a role like this when you were bringing together the Foundation?

No, I didn’t.

But if you told me we were going to be hiring somewhere, India probably would have been top of my list because there’s a massive IT industry in India. When we think about our interaction with emerging markets, India, in a lot of ways, is the poster child for how we would like it to work. There have already been some wonderful deployments of Raspberry Pi, for example in Kerala, without our direct involvement. And we think we’ve got something that’s useful for the Indian market. We have a product, we have clubs, we have teacher training. And we have a body of experience in how to teach people, so we have a physical commercial product as well as a charitable offering that we think are a good fit.

It’s going to be massive.

What is your favourite BBC type-in listing?

There was a game called Codename: Druid. There is a famous game called Codename: Droid which was the sequel to Stryker’s Run, which was an awesome, awesome game. And there was a type-in game called Codename: Druid, which was at the bottom end of what you would consider a commercial game.

codename druid

And I remember typing that in. And what was really cool about it was that the next month, the guy who wrote it did another article that talks about the memory map and which operating system functions used which bits of memory. So if you weren’t going to do disc access, which bits of memory could you trample on and know the operating system would survive.

babbage versus bugs Raspberry Pi annual

See the full listing for Babbage versus Bugs in the Raspberry Pi 2018 Annual

I still like type-in listings. The Raspberry Pi 2018 Annual has a type-in listing that I wrote for a Babbage versus Bugs game. I will say that’s not the last type-in listing you will see from me in the next twelve months. And if you download the PDF, you could probably copy and paste it into your favourite text editor to save yourself some time.

The post Continued: the answers to your questions for Eben Upton appeared first on Raspberry Pi.

Serverless Architectures with AWS Lambda: Overview and Best Practices

Post Syndicated from Andrew Baird original https://aws.amazon.com/blogs/architecture/serverless-architectures-with-aws-lambda-overview-and-best-practices/

For some organizations, the idea of “going serverless” can be daunting. But with an understanding of best practices – and the right tools — many serverless applications can be fully functional with only a few lines of code and little else.

Examples of fully-serverless-application use cases include:

  • Web or mobile backends – Create fully-serverless, mobile applications or websites by creating user-facing content in a native mobile application or static web content in an S3 bucket. Then have your front-end content integrate with Amazon API Gateway as a backend service API. Lambda functions will then execute the business logic you’ve written for each of the API Gateway methods in your backend API.
  • Chatbots and virtual assistants – Build new serverless ways to interact with your customers, like customer support assistants and bots ready to engage customers on your company-run social media pages. The Amazon Alexa Skills Kit (ASK) and Amazon Lex have the ability to apply natural-language understanding to user-voice and freeform-text input so that a Lambda function you write can intelligently respond and engage with them.
  • Internet of Things (IoT) backends – AWS IoT has direct-integration for device messages to be routed to and processed by Lambda functions. That means you can implement serverless backends for highly secure, scalable IoT applications for uses like connected consumer appliances and intelligent manufacturing facilities.

Using AWS Lambda as the logic layer of a serverless application can enable faster development speed and greater experimentation – and innovation — than in a traditional, server-based environment.

We recently published the “Serverless Architectures with AWS Lambda: Overview and Best Practices” whitepaper to provide the guidance and best practices you need to write better Lambda functions and build better serverless architectures.

Once you’ve finished reading the whitepaper, below are a couple additional resources I recommend as your next step:

  1. If you would like to better understand some of the architecture pattern possibilities for serverless applications: Thirty Serverless Architectures in 30 Minutes (re:Invent 2017 video)
  2. If you’re ready to get hands-on and build a sample serverless application: AWS Serverless Workshops (GitHub Repository)
  3. If you’ve already built a serverless application and you’d like to ensure your application has been Well Architected: The Serverless Application Lens: AWS Well Architected Framework (Whitepaper)

About the Author

 

Andrew Baird is a Sr. Solutions Architect for AWS. Prior to becoming a Solutions Architect, Andrew was a developer, including time as an SDE with Amazon.com. He has worked on large-scale distributed systems, public-facing APIs, and operations automation.

Invent new sounds with Google’s NSynth Super

Post Syndicated from Alex Bate original https://www.raspberrypi.org/blog/google-nsynth-super/

Discover new sounds and explore the role of machine learning in music production and sound research with the NSynth Super, an ongoing project from Google’s Magenta research team that you can build at home.

Google Open NSynth Super Testing

Uploaded by AB Open on 2018-04-17.

What is the NSynth Super?

Part of the ongoing Magenta research project within Google, NSynth Super explores the ways in which machine learning tools help artists and musicians be creative.

Google Nsynth Super Raspberry Pi

“Technology has always played a role in creating new types of sounds that inspire musicians — from the sounds of distortion to the electronic sounds of synths,” explains the team behind the NSynth Super. “Today, advances in machine learning and neural networks have opened up new possibilities for sound generation.”

Using TensorFlow, the Magenta team builds tools and interfaces that let  artists and musicians use machine learning in their work. The NSynth Super AI algorithm uses deep neural networking to investigate the character of sounds. It then builds new sounds based on these characteristics instead of simply mixing sounds together.

Using an autoencoder, it extracts 16 defining temporal features from each input. These features are then interpolated linearly to create new embeddings (mathematical representations of each sound). These new embeddings are then decoded into new sounds, which have the acoustic qualities of both inputs.

The team publishes all hardware designs and software that are part of their ongoing research under open-source licences, allowing you to build your own synth.

Build your own NSynth Super

Using these open-source tools, Andrew Black has produced his own NSynth Super, demoed in the video above. Andrew’s list of build materials includes a Raspberry Pi 3, potentiometers, rotary encoders, and the Adafruit 1.3″ OLED display. Magenta also provides Gerber files for you to fabricate your own PCB.

Google Nsynth Super Raspberry Pi

Once fabricated, the PCB includes a table of contents for adding components.

The build isn’t easy — it requires soldering skills or access to someone who can assemble PCBs. Take a look at Andrew’s blog post and the official NSynth GitHub repo to see whether you’re up to the challenge.

Google Nsynth Super Raspberry Pi
Google Nsynth Super Raspberry Pi
Google Nsynth Super Raspberry Pi

Music and Raspberry Pi

The Raspberry Pi has been widely used for music production and music builds. Be it retrofitting a boombox, distributing music atop Table Mountain, or coding tracks with Sonic Pi, the Pi offers endless opportunities for musicians and music lovers to expand their repertoire of builds and instruments.

If you’d like to try more music-based projects using the Raspberry Pi, you can check out our free resources. And if you’ve used a Raspberry Pi in your own musical project, please share it with us in the comments or via our social network accounts.

The post Invent new sounds with Google’s NSynth Super appeared first on Raspberry Pi.

AIY Projects 2: Google’s AIY Projects Kits get an upgrade

Post Syndicated from Alex Bate original https://www.raspberrypi.org/blog/google-aiy-projects-2/

After the outstanding success of their AIY Projects Voice and Vision Kits, Google has announced the release of upgraded kits, complete with Raspberry Pi Zero WH, Camera Module, and preloaded SD card.

Google AIY Projects Vision Kit 2 Raspberry Pi

Google’s AIY Projects Kits

Google launched the AIY Projects Voice Kit last year, first as a cover gift with The MagPi magazine and later as a standalone product.

Makers needed to provide their own Raspberry Pi for the original kit. The new kits include everything you need, from Pi to SD card.

Within a DIY cardboard box, makers were able to assemble their own voice-activated AI assistant akin to the Amazon Alexa, Apple’s Siri, and Google’s own Google Home Assistant. The Voice Kit was an instant hit that spurred no end of maker videos and tutorials, including our own free tutorial for controlling a robot using voice commands.

Later in the year, the team followed up the success of the Voice Kit with the AIY Projects Vision Kit — the same cardboard box hosting a camera perfect for some pretty nifty image recognition projects.

For more on the AIY Voice Kit, here’s our release video hosted by the rather delightful Rob Zwetsloot.

AIY Projects adds natural human interaction to your Raspberry Pi

Check out the exclusive Google AIY Projects Kit that comes free with The MagPi 57! Grab yourself a copy in stores or online now: http://magpi.cc/2pI6IiQ This first AIY Projects kit taps into the Google Assistant SDK and Cloud Speech API using the AIY Projects Voice HAT (Hardware Accessory on Top) board, stereo microphone, and speaker (included free with the magazine).

AIY Projects 2

So what’s new with version 2 of the AIY Projects Voice Kit? The kit now includes the recently released Raspberry Pi Zero WH, our Zero W with added pre-soldered header pins for instant digital making accessibility. Purchasers of the kits will also get a micro SD card with preloaded OS to help them get started without having to set the card up themselves.

Google AIY Projects Vision Kit 2 Raspberry Pi

Everything you need to build your own Raspberry Pi-powered Google voice assistant

In the newly upgraded AIY Projects Vision Kit v1.2, makers are also treated to an official Raspberry Pi Camera Module v2, the latest model of our add-on camera.

Google AIY Projects Vision Kit 2 Raspberry Pi

“Everything you need to get started is right there in the box,” explains Billy Rutledge, Google’s Director of AIY Projects. “We knew from our research that even though makers are interested in AI, many felt that adding it to their projects was too difficult or required expensive hardware.”

Google AIY Projects Vision Kit 2 Raspberry Pi
Google AIY Projects Vision Kit 2 Raspberry Pi
Google AIY Projects Vision Kit 2 Raspberry Pi

Google is also hard at work producing AIY Projects companion apps for Android, iOS, and Chrome. The Android app is available now to coincide with the launch of the upgraded kits, with the other two due for release soon. The app supports wireless setup of the AIY Kit, though avid coders will still be able to hack theirs to better suit their projects.

Google has also updated the AIY Projects website with an AIY Models section highlighting a range of neural network projects for the kits.

Get your kit

The updated Voice and Vision Kits were announced last night, and in the US they are available now from Target. UK-based makers should be able to get their hands on them this summer — keep an eye on our social channels for updates and links.

The post AIY Projects 2: Google’s AIY Projects Kits get an upgrade appeared first on Raspberry Pi.

Start a CoderDojo with our free online training

Post Syndicated from Alex Bate original https://www.raspberrypi.org/blog/start-a-coderdojo-with-our-free-online-training/

You can now sign up to our newest free online course Start a CoderDojo to learn more about CoderDojo and how you can easily set up one of these free coding clubs for young people in your area. With less than two weeks until the course begins, we wanted to tell you about the course’s content and why the course’s creator put it together for you.

Start a CoderDojo || free online learning || Raspberry Pi Foundation

Get support and advice on how to grow your confidence in coding and start a CoderDojo for young people in your area.

What is CoderDojo?

CoderDojo is a global network of free, volunteer-led, community-based programming clubs for young people aged 7 to 17. There are currently more than 1700 Dojos running regularly across 75 countries. All of these clubs were started by individuals who are passionate about giving young people the opportunity to learn to code. Some people assume you need technical skills to start a Dojo, but that’s not true. The most important thing is that you can bring people together for a shared goal.

What is covered on the course?

The course was developed by Philip, CoderDojo’s Educational Content Lead. It gives those who think empowering young people to be tech creators is important the resources and supports to achieve that goal by starting a Dojo. Divided over three weeks and running for about four hours in total, the course provides practical advice and resources on everything you need to know to plan and run a fun, social, and creative coding club for young people.

“In the first week, you’ll look at what coding is, at the worldwide CoderDojo community of coding clubs, and at the creative approach CoderDojos take to helping young people learn to code. In week two, you’ll move on to setting up your Dojo with a team, a venue, and any needed materials. You’ll also look at how to find young people to attend. Week three wraps up the course by giving you sample plans for a Dojo session and a Dojo’s year, and we’ll be talking about how to grow and develop your Dojo over time as your attendees become better coders.”
— Philip

Who is the course for?

Anyone interested in enabling young people to be tech creators should take this course. Parents, teachers, librarians, IT professionals, youth workers, and others have all started Dojos in their community. They say that “it’s an amazing experience that led [them] to expand [their] personal horizons”, and that they “find it really rewarding”.

The course is free and open to all — if you’re interested, then sign up now.

If you’re already mentoring at a Dojo, the course is a great opportunity to revise what you’ve learnt, and a chance to share your insights with newcomers in the discussion sections. Parents and guardians who wish to learn more about CoderDojo and are considering getting involved are also more than welcome to join.

The post Start a CoderDojo with our free online training appeared first on Raspberry Pi.

The Digital Security Exchange Is Live

Post Syndicated from Bruce Schneier original https://www.schneier.com/blog/archives/2018/04/the_digital_sec.html

Last year I wrote about the Digital Security Exchange. The project is live:

The DSX works to strengthen the digital resilience of U.S. civil society groups by improving their understanding and mitigation of online threats.

We do this by pairing civil society and social sector organizations with credible and trustworthy digital security experts and trainers who can help them keep their data and networks safe from exposure, exploitation, and attack. We are committed to working with community-based organizations, legal and journalistic organizations, civil rights advocates, local and national organizers, and public and high-profile figures who are working to advance social, racial, political, and economic justice in our communities and our world.

If you are either an organization who needs help, or an expert who can provide help, visit their website.

Note: I am on their advisory committee.

AWS Secrets Manager: Store, Distribute, and Rotate Credentials Securely

Post Syndicated from Randall Hunt original https://aws.amazon.com/blogs/aws/aws-secrets-manager-store-distribute-and-rotate-credentials-securely/

Today we’re launching AWS Secrets Manager which makes it easy to store and retrieve your secrets via API or the AWS Command Line Interface (CLI) and rotate your credentials with built-in or custom AWS Lambda functions. Managing application secrets like database credentials, passwords, or API Keys is easy when you’re working locally with one machine and one application. As you grow and scale to many distributed microservices, it becomes a daunting task to securely store, distribute, rotate, and consume secrets. Previously, customers needed to provision and maintain additional infrastructure solely for secrets management which could incur costs and introduce unneeded complexity into systems.

AWS Secrets Manager

Imagine that I have an application that takes incoming tweets from Twitter and stores them in an Amazon Aurora database. Previously, I would have had to request a username and password from my database administrator and embed those credentials in environment variables or, in my race to production, even in the application itself. I would also need to have our social media manager create the Twitter API credentials and figure out how to store those. This is a fairly manual process, involving multiple people, that I have to restart every time I want to rotate these credentials. With Secrets Manager my database administrator can provide the credentials in secrets manager once and subsequently rely on a Secrets Manager provided Lambda function to automatically update and rotate those credentials. My social media manager can put the Twitter API keys in Secrets Manager which I can then access with a simple API call and I can even rotate these programmatically with a custom lambda function calling out to the Twitter API. My secrets are encrypted with the KMS key of my choice, and each of these administrators can explicitly grant access to these secrets with with granular IAM policies for individual roles or users.

Let’s take a look at how I would store a secret using the AWS Secrets Manager console. First, I’ll click Store a new secret to get to the new secrets wizard. For my RDS Aurora instance it’s straightforward to simply select the instance and provide the initial username and password to connect to the database.

Next, I’ll fill in a quick description and a name to access my secret by. You can use whatever naming scheme you want here.

Next, we’ll configure rotation to use the Secrets Manager-provided Lambda function to rotate our password every 10 days.

Finally, we’ll review all the details and check out our sample code for storing and retrieving our secret!

Finally I can review the secrets in the console.

Now, if I needed to access these secrets I’d simply call the API.

import json
import boto3
secrets = boto3.client("secretsmanager")
rds = json.dumps(secrets.get_secrets_value("prod/TwitterApp/Database")['SecretString'])
print(rds)

Which would give me the following values:


{'engine': 'mysql',
 'host': 'twitterapp2.abcdefg.us-east-1.rds.amazonaws.com',
 'password': '-)Kw>THISISAFAKEPASSWORD:lg{&sad+Canr',
 'port': 3306,
 'username': 'ranman'}

More than passwords

AWS Secrets Manager works for more than just passwords. I can store OAuth credentials, binary data, and more. Let’s look at storing my Twitter OAuth application keys.

Now, I can define the rotation for these third-party OAuth credentials with a custom AWS Lambda function that can call out to Twitter whenever we need to rotate our credentials.

Custom Rotation

One of the niftiest features of AWS Secrets Manager is custom AWS Lambda functions for credential rotation. This allows you to define completely custom workflows for credentials. Secrets Manager will call your lambda with a payload that includes a Step which specifies which step of the rotation you’re in, a SecretId which specifies which secret the rotation is for, and importantly a ClientRequestToken which is used to ensure idempotency in any changes to the underlying secret.

When you’re rotating secrets you go through a few different steps:

  1. createSecret
  2. setSecret
  3. testSecret
  4. finishSecret

The advantage of these steps is that you can add any kind of approval steps you want for each phase of the rotation. For more details on custom rotation check out the documentation.

Available Now
AWS Secrets Manager is available today in US East (N. Virginia), US East (Ohio), US West (N. California), US West (Oregon), Asia Pacific (Mumbai), Asia Pacific (Seoul), Asia Pacific (Singapore), Asia Pacific (Sydney), Asia Pacific (Tokyo), Canada (Central), EU (Frankfurt), EU (Ireland), EU (London), and South America (São Paulo). Secrets are priced at $0.40 per month per secret and $0.05 per 10,000 API calls. I’m looking forward to seeing more users adopt rotating credentials to secure their applications!

Randall

Facebook and Cambridge Analytica

Post Syndicated from Bruce Schneier original https://www.schneier.com/blog/archives/2018/03/facebook_and_ca.html

In the wake of the Cambridge Analytica scandal, news articles and commentators have focused on what Facebook knows about us. A lot, it turns out. It collects data from our posts, our likes, our photos, things we type and delete without posting, and things we do while not on Facebook and even when we’re offline. It buys data about us from others. And it can infer even more: our sexual orientation, political beliefs, relationship status, drug use, and other personality traits — even if we didn’t take the personality test that Cambridge Analytica developed.

But for every article about Facebook’s creepy stalker behavior, thousands of other companies are breathing a collective sigh of relief that it’s Facebook and not them in the spotlight. Because while Facebook is one of the biggest players in this space, there are thousands of other companies that spy on and manipulate us for profit.

Harvard Business School professor Shoshana Zuboff calls it “surveillance capitalism.” And as creepy as Facebook is turning out to be, the entire industry is far creepier. It has existed in secret far too long, and it’s up to lawmakers to force these companies into the public spotlight, where we can all decide if this is how we want society to operate and — if not — what to do about it.

There are 2,500 to 4,000 data brokers in the United States whose business is buying and selling our personal data. Last year, Equifax was in the news when hackers stole personal information on 150 million people, including Social Security numbers, birth dates, addresses, and driver’s license numbers.

You certainly didn’t give it permission to collect any of that information. Equifax is one of those thousands of data brokers, most of them you’ve never heard of, selling your personal information without your knowledge or consent to pretty much anyone who will pay for it.

Surveillance capitalism takes this one step further. Companies like Facebook and Google offer you free services in exchange for your data. Google’s surveillance isn’t in the news, but it’s startlingly intimate. We never lie to our search engines. Our interests and curiosities, hopes and fears, desires and sexual proclivities, are all collected and saved. Add to that the websites we visit that Google tracks through its advertising network, our Gmail accounts, our movements via Google Maps, and what it can collect from our smartphones.

That phone is probably the most intimate surveillance device ever invented. It tracks our location continuously, so it knows where we live, where we work, and where we spend our time. It’s the first and last thing we check in a day, so it knows when we wake up and when we go to sleep. We all have one, so it knows who we sleep with. Uber used just some of that information to detect one-night stands; your smartphone provider and any app you allow to collect location data knows a lot more.

Surveillance capitalism drives much of the internet. It’s behind most of the “free” services, and many of the paid ones as well. Its goal is psychological manipulation, in the form of personalized advertising to persuade you to buy something or do something, like vote for a candidate. And while the individualized profile-driven manipulation exposed by Cambridge Analytica feels abhorrent, it’s really no different from what every company wants in the end. This is why all your personal information is collected, and this is why it is so valuable. Companies that can understand it can use it against you.

None of this is new. The media has been reporting on surveillance capitalism for years. In 2015, I wrote a book about it. Back in 2010, the Wall Street Journal published an award-winning two-year series about how people are tracked both online and offline, titled “What They Know.”

Surveillance capitalism is deeply embedded in our increasingly computerized society, and if the extent of it came to light there would be broad demands for limits and regulation. But because this industry can largely operate in secret, only occasionally exposed after a data breach or investigative report, we remain mostly ignorant of its reach.

This might change soon. In 2016, the European Union passed the comprehensive General Data Protection Regulation, or GDPR. The details of the law are far too complex to explain here, but some of the things it mandates are that personal data of EU citizens can only be collected and saved for “specific, explicit, and legitimate purposes,” and only with explicit consent of the user. Consent can’t be buried in the terms and conditions, nor can it be assumed unless the user opts in. This law will take effect in May, and companies worldwide are bracing for its enforcement.

Because pretty much all surveillance capitalism companies collect data on Europeans, this will expose the industry like nothing else. Here’s just one example. In preparation for this law, PayPal quietly published a list of over 600 companies it might share your personal data with. What will it be like when every company has to publish this sort of information, and explicitly explain how it’s using your personal data? We’re about to find out.

In the wake of this scandal, even Mark Zuckerberg said that his industry probably should be regulated, although he’s certainly not wishing for the sorts of comprehensive regulation the GDPR is bringing to Europe.

He’s right. Surveillance capitalism has operated without constraints for far too long. And advances in both big data analysis and artificial intelligence will make tomorrow’s applications far creepier than today’s. Regulation is the only answer.

The first step to any regulation is transparency. Who has our data? Is it accurate? What are they doing with it? Who are they selling it to? How are they securing it? Can we delete it? I don’t see any hope of Congress passing a GDPR-like data protection law anytime soon, but it’s not too far-fetched to demand laws requiring these companies to be more transparent in what they’re doing.

One of the responses to the Cambridge Analytica scandal is that people are deleting their Facebook accounts. It’s hard to do right, and doesn’t do anything about the data that Facebook collects about people who don’t use Facebook. But it’s a start. The market can put pressure on these companies to reduce their spying on us, but it can only do that if we force the industry out of its secret shadows.

This essay previously appeared on CNN.com.

EDITED TO ADD (4/2): Slashdot thread.

Amazon ECS Service Discovery

Post Syndicated from Randall Hunt original https://aws.amazon.com/blogs/aws/amazon-ecs-service-discovery/

Amazon ECS now includes integrated service discovery. This makes it possible for an ECS service to automatically register itself with a predictable and friendly DNS name in Amazon Route 53. As your services scale up or down in response to load or container health, the Route 53 hosted zone is kept up to date, allowing other services to lookup where they need to make connections based on the state of each service. You can see a demo of service discovery in an imaginary social networking app over at: https://servicediscovery.ranman.com/.

Service Discovery


Part of the transition to microservices and modern architectures involves having dynamic, autoscaling, and robust services that can respond quickly to failures and changing loads. Your services probably have complex dependency graphs of services they rely on and services they provide. A modern architectural best practice is to loosely couple these services by allowing them to specify their own dependencies, but this can be complicated in dynamic environments as your individual services are forced to find their own connection points.

Traditional approaches to service discovery like consul, etcd, or zookeeper all solve this problem well, but they require provisioning and maintaining additional infrastructure or installation of agents in your containers or on your instances. Previously, to ensure that services were able to discover and connect with each other, you had to configure and run your own service discovery system or connect every service to a load balancer. Now, you can enable service discovery for your containerized services in the ECS console, AWS CLI, or using the ECS API.

Introducing Amazon Route 53 Service Registry and Auto Naming APIs

Amazon ECS Service Discovery works by communicating with the Amazon Route 53 Service Registry and Auto Naming APIs. Since we haven’t talked about it before on this blog, I want to briefly outline how these Route 53 APIs work. First, some vocabulary:

  • Namespaces – A namespace specifies a domain name you want to route traffic to (e.g. internal, local, corp). You can think of it as a logical boundary between which services should be able to discover each other. You can create a namespace with a call to the aws servicediscovery create-private-dns-namespace command or in the ECS console. Namespaces are roughly equivalent to hosted zones in Route 53. A namespace contains services, our next vocabulary word.
  • Service – A service is a specific application or set of applications in your namespace like “auth”, “timeline”, or “worker”. A service contains service instances.
  • Service Instance – A service instance contains information about how Route 53 should respond to DNS queries for a resource.

Route 53 provides APIs to create: namespaces, A records per task IP, and SRV records per task IP + port.

When we ask Route 53 for something like: worker.corp we should get back a set of possible IPs that could fulfill that request. If the application we’re connecting to exposes dynamic ports then the calling application can easily query the SRV record to get more information.

ECS service discovery is built on top of the Route 53 APIs and manages all of the underlying API calls for you. Now that we understand how the service registry, works lets take a look at the ECS side to see service discovery in action.

Amazon ECS Service Discovery

Let’s launch an application with service discovery! First, I’ll create two task definitions: “flask-backend” and “flask-worker”. Both are simple AWS Fargate tasks with a single container serving HTTP requests. I’ll have flask-backend ask worker.corp to do some work and I’ll return the response as well as the address Route 53 returned for worker. Something like the code below:

@app.route("/")
namespace = os.getenv("namespace")
worker_host = "worker" + namespace
def backend():
    r = requests.get("http://"+worker_host)
    worker = socket.gethostbyname(worker_host)
    return "Worker Message: {]\nFrom: {}".format(r.content, worker)

 

Now, with my containers and task definitions in place, I’ll create a service in the console.

As I move to step two in the service wizard I’ll fill out the service discovery section and have ECS create a new namespace for me.

I’ll also tell ECS to monitor the health of the tasks in my service and add or remove them from Route 53 as needed. Then I’ll set a TTL of 10 seconds on the A records we’ll use.

I’ll repeat those same steps for my “worker” service and after a minute or so most of my tasks should be up and running.

Over in the Route 53 console I can see all the records for my tasks!

We can use the Route 53 service discovery APIs to list all of our available services and tasks and programmatically reach out to each one. We could easily extend to any number of services past just backend and worker. I’ve created a simple demo of an imaginary social network with services like “auth”, “feed”, “timeline”, “worker”, “user” and more here: https://servicediscovery.ranman.com/. You can see the code used to run that page on github.

Available Now
Amazon ECS service discovery is available now in US East (N. Virginia), US East (Ohio), US West (Oregon), and EU (Ireland). AWS Fargate is currently only available in US East (N. Virginia). When you use ECS service discovery, you pay for the Route 53 resources that you consume, including each namespace that you create, and for the lookup queries your services make. Container level health checks are provided at no cost. For more information on pricing check out the documentation.

Please let us know what you’ll be building or refactoring with service discovery either in the comments or on Twitter!

Randall

 

P.S. Every blog post I write is made with a tremendous amount of help from numerous AWS colleagues. To everyone that helped build service discovery across all of our teams – thank you :)!